马斯克等千人疾呼暂停开发人工智能(图)

发表:2023-04-02 23:35
手机版 正体 打赏 2个留言 打印 特大

人工智能
马斯克曾多次表达对AI的担忧,并警告开发不受限制的AI风险危险比核弹还大。(图片来源: Getty Images)

【看williamhill官网 2023年4月2日讯】(看williamhill官网 记者程帆编译综合报导)近日,特斯拉首席执行官马斯克协同上千名AI(人工智能)专家、企业高管共同签署并发表了一封公开信,呼吁在人类对人工智能产品可控之前,应先暂停对强大智能系统的开发。

据路透社的报导,3月29日(周三),非营利组织未来生命研究所(Future of Life)发表了《暂停大型人工智能研究》公开信,所有AI实验室立即暂停训练比GPT-4更强大的智能系统,为期至少6个月。因为这类系统对社会构成了潜在危险。

GPT-4是由人工智能开发商OpenAI公司在3月中旬推出的,它除了比前一代GPT-3更聪明、有更高的准确性外,还可应用于各种领域,例如支持图像辨识、文本输入/输出、语言翻译、对话生成、自然语言理解、搜索引擎等。

尽管该模型在许多现实世界场景中的能力仍然远低于普通人,但其专业和学术水平不亚于人类。在美国律师执照统考模拟中,GPT-4的表现甚至超过90%的人类。

信中提到,在暂停实验期间,需要开发和实施一套为高级AI系统设计的共享安全协议,并由外部的独立专家进行严格审计和监督,以确保该系统是安全的。“只有在确信它们的效果是积极的,风险是能掌握的情况下,才可以继续进行开发工作。”

与此同时,信上还说明AI系统恐怕会以经济和政治破坏的形式,给社会和文明带来威胁。因此,开发者与政策制定者需要在限制方面与监管机构合作。

除马斯克(Elon Musk)外,苹果公司联合创办人沃兹尼亚克(Steve Wozniak)、Stability AI创办人穆斯塔克(Emad Mostaque)、谷歌AI部门DeepMind的一队研究人员,以及AI领域重量级人物本希奥(Yoshua Bengio)和罗素(Stuart Russell)等在内的1100多名人士都在信上签了名。

此前,马斯克就曾多次表达对AI的担忧,并警告开发不受限制的AI风险危险比核弹还大。

CNBC报导称,马斯克在2月15日参与迪拜的“世界政府高峰会(World Government Summit)”时说,AI是把双刃刀,是人类文明未来面临的最大风险之一。“它有积极的一面,也有消极的一面,有巨大的前景也有巨大的能力,但随之而来的危险也是巨大的。”他还建议,政府需要通过立法对其监管。

OpenAI首席执行官阿尔特曼(Sam Altman)在上周接受媒体采访时也表示,他对AI技术及其对劳动力、选举和虚假信息传播的影响“有点害怕”。在与MIT研究科学家弗里德曼(Lex Fridman)的最新对话中,他透露,“从ChatGPT开始,AI出现了某种推理能力,但没人能解读这种能力出现的原因。”并承认,“AI杀死人类”不是完全不可能。

这公开信发表之际,欧洲刑警组织(Europol)3月27日也对ChatGPT等先进AI提出了道德及法律疑虑。该组织示警,AI系统恐被滥用于网络钓鱼、虚假讯息及网络犯罪等。

(文章仅代表作者个人立场和观点)

来源:看williamhill官网

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看williamhill官网 》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位williamhill官网 大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员

看完这篇文章您觉得

评论



加入看williamhill官网
会员
donate

看williamhill官网 版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意