新京報貝殼財經(jīng)訊(記者羅亦丹)北京時間10月22日,包括諾獎獲得者、“AI之父”杰弗里·辛頓,蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克,世界上(論文)被引用數(shù)最多的科學家尤舒亞·本吉奧,維珍集團創(chuàng)始人理查德·布蘭森等在內(nèi)的科技領(lǐng)袖共同簽署了一份“關(guān)于超級智能的聲明”。


該聲明稱,“我們呼吁禁止超級智能的開發(fā),除非在確保其安全可控方面形成廣泛的科學共識,并贏得公眾支持之前,否則不應解除該禁令。”


該聲明還說明了發(fā)布的背景:創(chuàng)新性人工智能工具或?qū)槿祟悗砬八从械慕】蹬c繁榮。然而值得注意的是,除工具開發(fā)外,多家領(lǐng)先AI企業(yè)已公開宣布將在未來十年內(nèi)實現(xiàn)超級智能的構(gòu)建目標——即在所有核心認知任務(wù)上全面超越人類能力。這種發(fā)展態(tài)勢已引發(fā)多重關(guān)切,包括人類經(jīng)濟價值被邊緣化、自主權(quán)喪失、自由與公民權(quán)利受損、尊嚴貶損、控制力削弱等社會風險,乃至國家安全威脅甚至人類存續(xù)危機。本聲明旨在凝聚共識,讓各界知曉越來越多的專家與公眾人物反對盲目追求超級智能的立場。


新京報貝殼財經(jīng)記者注意到,簽署該聲明的也包括不少來自中國的科學家,如中國科學院院士、清華大學交叉信息研究院院長姚期智,中國工程院外籍院士、清華大學智能產(chǎn)業(yè)研究院院長張亞勤,北京前瞻人工智能安全與治理研究院院長、中國科學院自動化研究所研究員曾毅。


截至北京時間21點20分,該聲明已獲得1068個簽名。簽名人員之一的曾毅評論稱,“直到現(xiàn)在,我們還沒有堅實的科學證據(jù)和切實可行的方法來確保超級智能的安全,使其不會給人類帶來災難性的風險。世界尚未準備好迎接不是可控工具的超級智能。”


編輯 岳彩周

校對 薛京寧