馬斯克曾多次表達對AI的擔憂,並警告開發不受限制的AI風險危險比核彈還大。(图片来源: Getty Images)
【看williamhill官网 2023年4月2日讯】(看中國記者程帆編譯綜合報導)近日,特斯拉首席執行官馬斯克協同上千名AI(人工智能)專家、企業高管共同簽署併發表了一封公開信,呼籲在人類對人工智慧產品可控之前,應先暫停對強大智能系統的開發。
據路透社的報導,3月29日(週三),非營利組織未來生命研究所(Future of Life)發表了《暫停大型人工智慧研究》公開信,所有AI實驗室立即暫停訓練比GPT-4更強大的智能系統,為期至少6個月。因為這類系統對社會構成了潛在危險。
GPT-4是由人工智慧開發商OpenAI公司在3月中旬推出的,它除了比前一代GPT-3更聰明、有更高的準確性外,還可應用於各種領域,例如支持圖像辨識、文本輸入/輸出、語言翻譯、對話生成、自然語言理解、搜索引擎等。
儘管該模型在許多現實世界場景中的能力仍然遠低於普通人,但其專業和學術水平不亞於人類。在美國律師執照統考模擬中,GPT-4的表現甚至超過90%的人類。
信中提到,在暫停實驗期間,需要開發和實施一套為高級AI系統設計的共享安全協議,並由外部的獨立專家進行嚴格審計和監督,以確保該系統是安全的。「只有在確信它們的效果是積極的,風險是能掌握的情況下,才可以繼續進行開發工作。」
與此同時,信上還說明AI系統恐怕會以經濟和政治破壞的形式,給社會和文明帶來威脅。因此,開發者與政策制定者需要在限制方面與監管機構合作。
除馬斯克(Elon Musk)外,蘋果公司聯合創辦人沃茲尼亞克(Steve Wozniak)、Stability AI創辦人穆斯塔克(Emad Mostaque)、谷歌AI部門DeepMind的一隊研究人員,以及AI領域重量級人物本希奧(Yoshua Bengio)和羅素(Stuart Russell)等在內的1100多名人士都在信上簽了名。
此前,馬斯克就曾多次表達對AI的擔憂,並警告開發不受限制的AI風險危險比核彈還大。
CNBC報導稱,馬斯克在2月15日參與迪拜的「世界政府高峰會(World Government Summit)」時說,AI是把雙刃刀,是人類文明未來面臨的最大風險之一。「它有積極的一面,也有消極的一面,有巨大的前景也有巨大的能力,但隨之而來的危險也是巨大的。」他還建議,政府需要通過立法對其監管。
OpenAI首席執行官阿爾特曼(Sam Altman)在上週接受媒體採訪時也表示,他對AI技術及其對勞動力、選舉和虛假信息傳播的影響「有點害怕」。在與MIT研究科學家弗裡德曼(Lex Fridman)的最新對話中,他透露,「從ChatGPT開始,AI出現了某種推理能力,但沒人能解讀這種能力出現的原因。」並承認,「AI殺死人類」不是完全不可能。
這公開信發表之際,歐洲刑警組織(Europol)3月27日也對ChatGPT等先進AI提出了道德及法律疑慮。該組織示警,AI系統恐被濫用於網路釣魚、虛假訊息及網路犯罪等。