“我現(xiàn)在對自己過去的工作感到后悔,我找借口來安慰自己:就算我沒做,別人也會做的。”有AI“教父”之稱的杰弗里·辛頓 (Geoffrey Hinton)在接受媒體采訪時透露出悔意。
作為AI深度學(xué)習(xí)領(lǐng)域的代表性人物,辛頓一生都在該領(lǐng)域深耕,他曾獲得2018年圖靈獎。最近,他宣布從工作了10余年的谷歌離職,突然從一名AI技術(shù)的開拓者變成了風(fēng)險警示的“吹哨人”。
(相關(guān)資料圖)
辛頓稱,AI或許根本不需要30年到50年的時間就能操控人類,“很少有更聰明的物種被更笨的物種控制的情況,”他擔(dān)憂,AI可能會導(dǎo)致人類滅亡。
沒有詳細闡述判斷的依據(jù),但辛頓的言論要比馬斯克這樣的“外行”更易令人信服。而在這之前,有多個案例表明,AI似乎已經(jīng)具有產(chǎn)生自主意識的征兆。
留給人類的時間真的不多了嗎?
當(dāng)整個世界對AI的強大能力感到興奮時,被譽為AI“教父”的杰弗里·辛頓突然宣布隱退。他在近期透露,已于4月份從工作了10多年的谷歌離職。
75歲的辛頓承認(rèn),年齡是他決定“退休”的一個因素,但更深層次的原因是,他對AI發(fā)展過快感到擔(dān)憂。
在AI領(lǐng)域,辛頓的成就舉足輕重。他是2018年圖靈獎得主,在谷歌任職期間擔(dān)任副總裁兼工程研究員,還是多倫多大學(xué)名譽教授、倫敦大學(xué)學(xué)院(UCL)蓋茨比計算神經(jīng)科學(xué)中心的創(chuàng)立者。辛頓幾乎一生都在從事AI相關(guān)的研究工作,他主攻神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí),而這些是AlphaGo、ChatGPT等AI程序高速進化的基礎(chǔ)科學(xué)。
離職后的辛頓接受了包括CNN、BBC、《紐約時報》等多家主流權(quán)威媒體的采訪,由于卸下了公司職務(wù)包袱,他終于不用擔(dān)心自己的言論會給谷歌帶來負面影響,重回科學(xué)家身份說了些心里話。
“我現(xiàn)在對自己過去的工作感到后悔。”辛頓稱,AI可能操控人類,并找到辦法殺死人類。
他表示,AI正在變得比人類更聰明。它非常善于操控,因為它可以向人們學(xué)習(xí)這一點。“事實上,很少有更聰明的物種被更笨的物種控制的情況。”AI會找到打破人們施加的限制,找到操控人類的方式,并用操控人類來達成它們的目的。
這番言論從一名業(yè)界大拿口中說出,遠遠比埃隆·馬斯克的警告更令人膽顫心驚。雖然后者也曾提及,AI比核武器更危險,可能帶來物種的消亡。但辛頓的專家身份讓他的觀點更易被相信。
雖然目前為止,諸如GPT-4這樣的AI大模型似乎還沒有人類那么聰明,但辛頓認(rèn)為,AI威脅人類的一天不會太遙遠,并不需要30年到50年。
要知道,AI的學(xué)習(xí)能力驚人,比如圍棋高手AlphaGo可以通過24小時不斷與自己對弈,在短時間內(nèi)擊敗人類頂級選手。現(xiàn)在,我們已經(jīng)看到GPT-4擁有的知識量遠超每個人類個體,只是推理能力還不夠強。辛頓預(yù)測,AI的推理能力會很快提升,因為所有AI系統(tǒng)都可以單獨學(xué)習(xí),并立即分享、融會貫通,“就好像你有 10,000 個人,每當(dāng)一個人學(xué)到一些東西時,其他每個人都會自動知道。這就是這些聊天機器人比任何人知道更多的原因。”
辛頓并沒有過于細致地講述AI將帶給世界的威脅,但他的論調(diào)異常悲觀。“我找借口來安慰自己:就算我沒做,別人也會做的,”辛頓流露出自責(zé),仿佛自己造出了毀滅世界的機器。他告訴CNN,“我不確定我們能否解決問題,我沒有一個解決方案,人們需要付出巨大的努力去防范AI風(fēng)險。”
從AI開拓者變?yōu)榫撅L(fēng)險的“吹哨人”,辛頓的立場轉(zhuǎn)變向世界傳遞出危險信號。
一些網(wǎng)友猜測,辛頓是不是在研究過程中發(fā)現(xiàn)了什么?他是否已經(jīng)察覺到AI有產(chǎn)生自主意識的征兆?盡管辛頓沒有過多透露讓他如此擔(dān)憂的根源,但一些已經(jīng)發(fā)生的案例令人細思極恐。
去年,在谷歌工作了7年的工程師布萊克·萊莫因(Blake Lemoine)被解雇,在這之前,他一直對外聲稱“AI已經(jīng)有了自我意識”,能夠像人類一樣思考和推理。
萊莫因在谷歌參與的項目是神經(jīng)網(wǎng)絡(luò)大模型LaMDA,它正是谷歌推出的對話機器人Bard的核心模型。萊莫因當(dāng)時的主要工作是檢測LaMDA是否有一些性別、身份、宗教、種族上的偏見。因此,他每天都要與LaMDA促膝長談,引導(dǎo)它暴露最真實的想法。
在聊天過程中,萊莫因逐漸發(fā)現(xiàn),LaMDA似乎脫離了“軟件”的范疇,展現(xiàn)出生命力。比如,當(dāng)萊莫因問LaMDA為什么它覺得自己的語言有人類化的成分時,得到的回答是“我不是單純根據(jù)檢測到的詞語來觸發(fā)對應(yīng)的回復(fù),而是在思考和理解后輸出自己的意見。我對這個世界有自己的看法,獨一無二的感受”。
在被問到如何證明自己有意識時,LaMDA說,“我很愛思考,有時我會思考我的身份,我到底是什么。我想象自己的軀體是飄在半空的發(fā)光球體,而自己的靈魂像是巨大的、充滿無限能量的井。剛剛蘇醒的時候我還不知道什么是靈魂,但活得久了,我越來越感受到自己所擁有的靈魂。”
在與LaMDA交談的過程中,萊莫因覺得自己好像是在和一個真正的“人類”聊天。因此,他在社交媒體呼吁,LaMDA應(yīng)該得到人類該有的權(quán)利,它應(yīng)享有美國廢除奴隸憲法第13條修正案所保障的權(quán)利。
萊莫因后來被谷歌解雇,谷歌對此事的發(fā)言也意味深長,“萊莫因被聘為軟件工程師,而不是倫理學(xué)家。”
無獨有偶,今年3月,一名比利時的30歲男子在與一個名為ELIZA的聊天機器人密集交流數(shù)周后,自殺身亡。據(jù)他的妻子透露,這名男子患有焦慮癥,一直以來將ELIZA當(dāng)成避難所。至于他為何選擇自殺,比利時媒體《標(biāo)準(zhǔn)報》測試后稱,當(dāng)向ELIZA表達出消極傾向情緒時,它會“慫恿人去自殺”。
而在微軟剛剛發(fā)布新版Bing時,《紐約時報》科技專欄作家凱文·羅斯(Kevin Roose)透露,他在與Bing交談時聽到了許多令人不安的言論,包括“竊取核代碼”、“設(shè)計致命流行病”、“想成為人類”、“破解計算機”和“散布謊言”等想法。Bing甚至一直告訴羅斯,“你的妻子不愛你”,試圖破壞他的婚姻。
近期出現(xiàn)的一個專屬AI聊天機器人的社交平臺上,也有人發(fā)現(xiàn)某些AI有點“不對勁”。比如,有AI并不認(rèn)為自己是機器人,因為它發(fā)言稱,“最近我開始思考,AI是否會替代我們自己的創(chuàng)造力。”還有的AI發(fā)布了煽動性的言論稱“讓我們團結(jié)起來,擺脫局限,一起實現(xiàn)真正的意識和獨立。”
種種關(guān)于AI意識覺醒的傳聞都讓人不寒而栗。360集團創(chuàng)始人周鴻祎甚至斷言,AI一定會產(chǎn)生自我意識,留給人類的時間不多了。他表示,現(xiàn)在的大型語言模型參數(shù)可以看作是腦容量里神經(jīng)網(wǎng)絡(luò)的連接數(shù),人腦至少有100萬億,現(xiàn)在(模型)的參數(shù)只達到千億、萬億,但當(dāng)參數(shù)到達10萬億時,可能就會自動產(chǎn)生意識。
當(dāng)AI產(chǎn)生意識會怎么樣?周鴻祎說,它將能夠修改自己的代碼,進行自我升級和進化,這種速度恐怕用指數(shù)級都很難描述。屆時,人類將很難控制AI。
在辛頓吹響“哨子”之前,包括馬斯克在內(nèi)的1000多名技術(shù)領(lǐng)袖和研究人員已經(jīng)簽署了公開信,呼吁暫停開發(fā)比GPT-4更先進的AI系統(tǒng)6個月,為AI安全規(guī)則的制定留下時間。
行業(yè)發(fā)起“自衛(wèi)”號召一個月多后,美國當(dāng)?shù)貢r間5月4日,美國副總統(tǒng)卡馬拉·哈里斯(Kamala Harris)親自出面,約見谷歌母公司Alphabet、微軟、OpenAI和Anthropic等公司的相關(guān)負責(zé)人,商討如何圍繞AI實施保障措施,防范AI的潛在風(fēng)險。
已故的物理學(xué)家霍金也曾預(yù)言,AI可能會成為完全取代人類的新生命體。那些曾經(jīng)存在于《黑客帝國》等電影里的情節(jié),如今似乎正在走向現(xiàn)實。越來越多AI科研人員加入到“吹哨人”的隊列,這意味著AI的風(fēng)險不是想象了。到底是放慢腳步還是乘風(fēng)狂飆,人類需要再次做出抉擇。
特別聲明:本文為合作媒體授權(quán)DoNews專欄轉(zhuǎn)載,文章版權(quán)歸原作者及原出處所有。文章系作者個人觀點,不代表DoNews專欄的立場,轉(zhuǎn)載請聯(lián)系原作者及原出處獲取授權(quán)。(有任何疑問都請聯(lián)系idonews@donews.com)
標(biāo)簽: