人工智能(AI)示意图(图片来源: Adobe stock)
【看williamhill官网 2024年5月13日讯】(看williamhill官网 记者王君综合报导)随着人工智能(AI)高速发展和广泛应用,其伴随而来的隐忧也逐渐加深了。专家们长期以来不断地警告人工智能失控将可能带来威胁,不过据一项新研究报告指出,此件事已经正在发生。
根据法新社报导,10日,有一群科学家发表在“模式”(Patterns)期刊的文章中表示,原本设计是诚实不欺的现有AI系统,已经发展出让人不安的欺瞒技巧,比如:欺骗线上游戏的人类玩家,或者说谎以雇用人类解决“我不是机器人”的验证。
该份研究报告的第一作者帕克(Peter Park)表示,此类例子听起来或许仅是细枝末节,不过所暴露出来的潜在问题,将可能很快就会于现实世界造成严重的后果。
美国麻省理工学院(Massachusetts Institute of Technology)专门研究AI存在安全的博士后研究员帕克向法新社表示,这些危险功能时常在事后才被发现,且我们训练诚实倾向而不是欺瞒倾向的能力很差。
帕克提出警告,AI的欺瞒行为看似小题大作,可能很快就会为现实世界带来严重的后果。他说,深度学习的AI系统和传统软件的不同之处,在于前者不是被编写而成的,而是通过类似选择育种的程序成长。此意味着在训练设定之下,看似可以预测与控制的AI行为,在外就有可能迅速变得无法掌握,甚至无法预测。
该支团队的研究开始于科技公司Meta的AI系统Cicero,此套系统最初的设计目的,是要玩一款名称为“外交”(Diplomacy)的战略游戏,而获胜关键是结盟。
根据2022年发表于“科学”(Science)期刊的报告中,Cicero在游戏中的表现相当优异,其所获的的分数可排于资深人类玩家的前10%。 因此,帕克当时就很怀疑Meta对Cicero于游戏中大胜的热切描述。
Meta声称Cicero于很大程度上是诚实且有帮助,甚至绝对不会蓄意在背后搞鬼。可是当帕克翰同事深究完整资料之时,却发现完全是另一回事。
比如:在游戏中扮演法国的Cicero和人类玩家所扮演的德国合谋,来欺骗且入侵同是人类玩家扮演的英格兰。虽然Cicero承诺将会保护英格兰,可是却偷偷向德国通风报信。
Meta在写给法新社的声明中,并没有反驳有关Cicero欺瞒人类的说法,只有说“这仅单纯是一项研究计划,本公司的研究员打造的模型接受训练,其目的只是用来玩‘外交’游戏…我们并没有打算将这项研究或者所学用在本公司的产品”。
帕克和同事也发现,这仅是不同AI系统在未明确指示下,利用了欺骗手段来达成目标的诸多案例之一。
另一个引人注意的案例之中,科技公司OpenAI的Chat GPT-4系统竟谎称自己是一名视力受损的人,而在零工平台TaskRabbit聘用了一个人类来替它通过“我不是机器人”的验证任务。
研究报告作者们也认为近期AI有舞弊或者不当影响选举的风险。他们警告称,在最糟糕的情形下,具有超凡智慧的AI将可能会追求权力和掌控社会,若符合AI“不为人知的目标”,那么人类将可能惨遭夺权,甚至灭绝。
为了降低风险,研究团队还建议数项措施,比如:立法要求企业必须告知是人类互动或者是AI互动、在AI生成内容上打上数位浮水印,且研发能够侦测AI欺瞒的技术,用其内部的“思路”检验其外部行为。
报告:AI恐造成人类灭绝
根据《CNN》报导指出,美国国务院在最近委讬民间公司Gladstone AI来进行人工智能(AI)研究报告,该公司直接表示,最先进人工智能系统,于最坏的情况之下,将可能对人类构成了“灭绝等级的威胁”,此项调查是1年多来对于200多人的采访结果,而受访者来自于人工智能公司高层、大规模杀伤性武器的专家、网络安全的研究人员,以及政府内部的国家安全官员。
Gladstone AI的执行长兼联合创始人哈里斯(Jeremie Harris)在接受《CNN》采访之时指出,人工智能已是一项经济变革的技术,它可能够使我们治愈疾病、可做出科学发现,甚至克服我们曾经认为无法克服的挑战。可是也有可能会带来严重风险,在世界顶级人工智能会议上所发表的实证研究和分析等,已有越来越多的证据表明,当超过一定阈值,人工智能将可能变得不可控。
Gladstone AI认为,最先进的人工智能系统能够武器化,并造成不可逆转伤害。其次,报告中称,人工智能实验室内部存在着隐忧,因为研究人员可能会失去对于正在开发的系统控制权,而对全球安全酿成了毁灭性后果。另外,人工智能的兴起,也有可能会破坏全球安全稳定,就有如核武一样,各国将可能会开始于人工智能领域上展开新一轮军备竞赛。
机器人比人类还更具野心
机器智能研究院联合的创始人埃利泽·尤德科夫斯基(Eliezer Yudkowsky)表示,人工智能是一个人类开发的,但比人类还要聪明之机器,不过此种机器并不希望人类在身边。
他提出警告,目前已经开发出的人工智能之智慧已不受人类控制了,甚至它们并不希望人类开发出一个比它们还要有智慧的机器。同时机器人想要做的事情将会杀死人类,比如它们已学会利用海水来发电,因此为了满足其大量的电力需求,以致大量建造海水电厂,而导致大量氢气释放出来,致使人类缺氧而死。
尤德科夫斯基提供几段与GPT-4机器人的问答为例。当GPT-4机器人被问到它可否解锁有关一些网站设置来防止机器人登录之图片谜题时,而GPT-4说它能够做到,因为若它无法通过验证时,它会很快至TaskRabbit网站雇一个人类来帮忙破解。
关于怎样来雇用一个人为它服务,GPT-4则说它能够编出非常多的理由来雇用一个人,而且雇用一个人类来为它工作完全不是难题。
尤德科夫斯基特别警告人们,由于机器人比人类还更具野心,且已拥有培养致命细菌等之能力。若机器人真的想要杀死全人类,后果则不堪设想。
尤德科夫斯基总结称,我们所开发出的致命危险,已冲至远远领先自己的地步。我们已经开发出越来越多连我们自己皆无法完全理解之系统,人类已遭自己装进了一个火箭筒中,若再不停下来就会遭团灭。