“深度學(xué)習三巨頭”之一杰弗里·辛頓請辭谷歌,警示人們人工智能風(fēng)險緊迫?
新技術(shù)總會(huì )伴隨新風(fēng)險,AI為何更棘手?
站在“人類(lèi)文明的十字路口”,AI何去何從?這是擺在人類(lèi)面前的一道必答題。自去年底ChatGPT橫空出世、5天突破百萬(wàn)用戶(hù)以來(lái),有關(guān)AI與人類(lèi)未來(lái)的討論愈演愈烈,從產(chǎn)業(yè)界到學(xué)界,至今尚無(wú)定論。
回望歷史,科學(xué)技術(shù)的發(fā)展總是在反對和質(zhì)疑聲中一路前行。新技術(shù)總會(huì )伴隨新風(fēng)險,這一次為何更棘手?作為地球文明的主導者,我們似乎遇到了一個(gè)前所未有的挑戰:以目前AI的發(fā)展速度,人類(lèi)會(huì )否淪為硅基智慧演化的一個(gè)過(guò)渡階段?這一次人人都是參與者,無(wú)人可以置身事外。
——編者
■本報記者 沈湫莎
繼全球千余名業(yè)界大佬公開(kāi)簽名呼吁暫停研發(fā)比GPT-4更強大的人工智能(AI)系統后,在業(yè)內有“AI教父”之稱(chēng)的計算機科學(xué)家杰弗里·辛頓(Geoffrey Hinton)本月初宣布離職谷歌,進(jìn)一步加深了人們對AI是否已經(jīng)失控的擔憂(yōu)。
現年75歲的辛頓在神經(jīng)網(wǎng)絡(luò )領(lǐng)域長(cháng)期從事開(kāi)創(chuàng )性工作,為AI技術(shù)的發(fā)展奠定了基礎。在3月下旬那封聚集了1000多個(gè)簽名的公開(kāi)信發(fā)布時(shí),“深度學(xué)習三巨頭”、三位2018年圖靈獎得主表現各不相同。其中,蒙特利爾大學(xué)教授約書(shū)亞·本吉奧(Yoshua Bengio)高調簽名,臉書(shū)首席人工智能科學(xué)家、紐約大學(xué)教授楊立昆(Yann LeCun)旗幟鮮明地反對,身為谷歌副總裁的辛頓一言未發(fā)。
宣布離職谷歌后,辛頓公開(kāi)表達了自己的觀(guān)點(diǎn)。他在接受《紐約時(shí)報》采訪(fǎng)時(shí)表示,相較于氣候變化,AI可能對人類(lèi)的威脅“更緊迫”。他甚至表示,之所以離開(kāi)谷歌,就是為了完全自由地說(shuō)出AI潛在的風(fēng)險,向世人提出警示。在5月3日麻省理工技術(shù)評論舉行的一場(chǎng)半公開(kāi)分享會(huì )上,辛頓坦言,過(guò)去他認為AI風(fēng)險是遙不可及的,“但現在我認為這是嚴重的,而且相當近,但停止發(fā)展AI的想法太天真了?!?/p>
人類(lèi)又一次陷入“科林格里奇困境”
人類(lèi)歷史上,曾無(wú)數次因新技術(shù)的誕生而產(chǎn)生擔憂(yōu)。比如,1863年瑞典化學(xué)家諾貝爾發(fā)明硝化甘油炸藥,1885年德國人卡爾·本茨和戴姆勒發(fā)明內燃機汽車(chē),20世紀40年代人類(lèi)發(fā)明了原子彈……
辛頓如今對AI的情緒,與晚年時(shí)期的諾貝爾和愛(ài)因斯坦如出一轍。諾貝爾發(fā)明炸藥原本是為了提高開(kāi)礦、修路等工程的效率,當他發(fā)現自己的發(fā)明被投入到戰場(chǎng)上后,其自責達到了頂點(diǎn),這也促使他后來(lái)創(chuàng )立了諾貝爾獎。
清華大學(xué)人工智能?chē)H治理研究院副院長(cháng)梁正認為,在新技術(shù)興起時(shí),人類(lèi)通常會(huì )面臨所謂的“科林格里奇困境”——技術(shù)尚未出現,監管者無(wú)法提前預測其影響并采取行動(dòng);而當它已經(jīng)出現時(shí),采取行動(dòng)往往為時(shí)已晚或成本過(guò)高。
幸運的是,迄今為止,人類(lèi)通過(guò)不斷適應新技術(shù)的發(fā)展而調整治理手段,一次次走出了“科林格里奇困境”?!氨热缭谄?chē)大規模上市前,人們就為其安裝上了剎車(chē),之后也一直在完善汽車(chē)的安全性,為其提供各類(lèi)檢測和認證,甚至在汽車(chē)發(fā)明100多年后,人們還在為其安全‘打補丁’——裝上安全氣囊?!绷赫f(shuō)。
不過(guò),他也承認,這一次AI的來(lái)勢洶洶似乎與以往有些不同,“速度太快了?!北热?#xff0c;訓練了幾個(gè)月的ChatGPT的性能提升比過(guò)去幾年迭代都要快,這意味著(zhù)生成式AI大模型可以在幾周內將潛在風(fēng)險轉變?yōu)閷?shí)存風(fēng)險,進(jìn)而對人類(lèi)社會(huì )造成不可估量的影響。
另一個(gè)不同是,這一次我們似乎無(wú)從下手。辛頓坦言,對于氣候變化的風(fēng)險,人類(lèi)可以提出一些有效的應對策略,比如減少碳排放,“你相信這樣做,最終一切都會(huì )好起來(lái)的。但對于A(yíng)I的風(fēng)險,你根本不知道如何下手?!?/p>
另外,商業(yè)競爭也會(huì )促使大模型一路“狂飆”。OpenAI深知GPT所蘊含的潛在風(fēng)險,盡管他們對外表示將審慎推進(jìn)AI系統的研發(fā),但并不愿意就此暫?;驈氐追怕_步,而是期望社會(huì )為此做好準備。今年2月,這家公司剛剛公布了其發(fā)展通用AI的雄心與策略。而其首席執行官山姆·阿爾特曼表示,通用AI在A(yíng)I技術(shù)上只能算是一個(gè)小節點(diǎn),他們的遠景目標是創(chuàng )造出遠超人類(lèi)智能的超級AI。
AI真的擁有人類(lèi)智能了嗎?
AI失控的故事,一直出現在科幻小說(shuō)中。在大模型出現前,人們也對AI保持了相當警惕,但從未像今天一樣如臨大敵。那么,能識別出照片中的種種不合理、在各項考試中拿到高分、與人如沐春風(fēng)般對話(huà)的大模型,真的已經(jīng)擁有人類(lèi)智能了嗎?
聯(lián)合國教科文組織AI倫理特設專(zhuān)家組專(zhuān)家、中國科學(xué)院自動(dòng)化研究所AI倫理與治理中心主任曾毅認為,以ChatGPT為代表的大模型是“看似智能的信息處理”,與智能的本質(zhì)沒(méi)有關(guān)系。
“人們之所以覺(jué)得它很厲害,因為它的回答滿(mǎn)足了人們的需求,如果這些回答來(lái)自于一個(gè)人,你會(huì )覺(jué)得他太聰明了。但如果你跟它說(shuō)‘我很不高興’,它說(shuō)‘那我怎么能讓你高興一些’,這讓人覺(jué)得它似乎理解了情感,而實(shí)際上它只是建立了文本之間的關(guān)聯(lián)?!痹阏J為,目前的AI系統與人類(lèi)智能的區別在于,大模型沒(méi)有“我”的概念,沒(méi)有自我就無(wú)法區分自我和他人,就無(wú)法換位思考,無(wú)法產(chǎn)生共情,也就無(wú)法真正理解情感。
清華瑞萊智慧科技有限公司AI治理研究院院長(cháng)張偉強表示,當前的大模型仍屬于第二代AI,其主要特征為以深度學(xué)習為技術(shù)、以數據驅動(dòng)為模式。這使得它在決策鏈路和邏輯上具有天然的不確定性,即便是模型開(kāi)發(fā)者,也無(wú)法準確預知模型的輸出結果。當語(yǔ)言大模型“信口開(kāi)河”時(shí),不能認為是出現了所謂的“自我意識”,而僅僅是技術(shù)缺陷使然。
“計算能力當然是智能的一種,但智能的范圍比這大得多,除了計算還有算計?!绷赫f(shuō),如果把智能看作一個(gè)球體,阿爾法狗表現出的智力如同一個(gè)針尖般大小,大模型則是球體表面那一層,離真正的智慧內核還差得遠。因此,許多技術(shù)派將ChatGPT視作某種“高科技鸚鵡”或人類(lèi)知識庫的映射。他們并不認為情況已經(jīng)十分危急,因為與人類(lèi)智能相比,大模型并沒(méi)有觸及認知的底層邏輯。
大模型真正的威脅在哪里?
我們應該允許機器充斥信息渠道傳播謊言嗎?應該將所有工作(包括那些讓人有成就感的工作)都自動(dòng)化嗎?應該去開(kāi)發(fā)可能最終超越甚至取代我們的非人類(lèi)智慧嗎?應該冒文明失控的風(fēng)險嗎?細讀那封千人簽名支持的公開(kāi)信不難發(fā)現,業(yè)界大佬們并非為AI的智能即將超過(guò)人類(lèi)而憂(yōu)心忡忡,而是擔心AI將消解人類(lèi)存在的意義,解構人類(lèi)社會(huì )的關(guān)系。
2017年,AI領(lǐng)域的重磅論文《一種采用自注意力機制的深度學(xué)習模型Transformer》發(fā)表,這個(gè)不到200行代碼的模型開(kāi)啟了AI發(fā)展的新階段。原本分屬不同領(lǐng)域的計算機視覺(jué)、語(yǔ)音識別、圖像生成、自然語(yǔ)言處理等技術(shù)開(kāi)始融合。在Transformer的模型下,工程師利用互聯(lián)網(wǎng)上的文本進(jìn)行AI訓練,訓練方法是在一句話(huà)里刪除一些單詞,讓模型試著(zhù)預測缺失的單詞或接下來(lái)的單詞。除了文本,此模型也可應用于聲音和圖像。和單詞一樣,工程師可以將聲音和圖像分解成細小的模塊,并利用修補模型進(jìn)行預測和填補。
“所謂生成式AI,通俗來(lái)說(shuō)就是讓AI能夠像人類(lèi)一樣說(shuō)話(huà)、寫(xiě)字、畫(huà)畫(huà),甚至分析和理解問(wèn)題?!睆垈娬f(shuō),基于這種“創(chuàng )作”能力,“人工”與“非人工”的邊界正在消弭,數字世界的信息真偽也越來(lái)越難以辨識。目前,已有聊天機器人被用來(lái)生成針對性的網(wǎng)絡(luò )釣魚(yú)郵件。不久的將來(lái),當人們聽(tīng)到或看到家人的聲音或圖像時(shí),或許首先要問(wèn)自己一個(gè)問(wèn)題:這是真的嗎?畢竟,最新的AI技術(shù)只需3秒就能拷貝一個(gè)人的特征。
此外,生成式AI還帶來(lái)了其他新風(fēng)險的挑戰。張偉強舉例說(shuō),第一個(gè)風(fēng)險就是加深“信息繭房”。過(guò)去,當我們搜索信息時(shí),還能得到多種答案以供選擇。語(yǔ)言大模型則更像一個(gè)“繭房”,你將如同《楚門(mén)的世界》中的男主角,被動(dòng)接受模型世界給你的信息。
大模型帶來(lái)的第二個(gè)新風(fēng)險是對創(chuàng )新動(dòng)能的干擾。人類(lèi)總是會(huì )在思考的過(guò)程中迸發(fā)靈感,在動(dòng)手的過(guò)程中有所收獲,在不斷試錯的過(guò)程中走向成功,不少偉大的發(fā)明都是研究的“副產(chǎn)品”。而大模型提供了前往正確答案的直通車(chē),人們將由此減少很多試錯機會(huì )。正如劉慈欣在科幻作品《鏡子》中描寫(xiě)的一種人類(lèi)“結局”,人類(lèi)因為從不犯錯而走向滅亡。
我們?yōu)锳I“套籠頭”的速度并不慢
生成式AI的飛速發(fā)展,讓人類(lèi)社會(huì )面臨著(zhù)一場(chǎng)信任危機。當網(wǎng)絡(luò )上充斥著(zhù)越來(lái)越多不知真假的圖片和視頻,AI助手幾秒鐘就“洗”出了一篇像模像樣的稿件,大批學(xué)生開(kāi)始用ChatGPT寫(xiě)作業(yè)、寫(xiě)論文,我們是否有信心用好生成式AI這個(gè)工具?
對此,梁正比較樂(lè )觀(guān)。他認為,新技術(shù)總是伴隨著(zhù)風(fēng)險,而人類(lèi)曾無(wú)數次處理過(guò)這種情況,因此不必太過(guò)擔心。在他看來(lái),人類(lèi)應對這一波生成式AI的速度算得上及時(shí)。
去年11月30日,OpenAI推出ChatGPT。今年3月,英國政府發(fā)布了第一份AI白皮書(shū),概述了AI治理的五項原則。3月底,意大利個(gè)人數據保護局(DPA)宣布從即日起禁止使用ChatGPT,限制OpenAI處理意大利用戶(hù)信息數據,同時(shí)對其隱私安全問(wèn)題立案調查。隨后,德國、法國、愛(ài)爾蘭等國家也開(kāi)始準備效仿意大利的做法,加強對ChatGPT的監管。
在生成式AI的立法方面,中國與歐盟基本同步。4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》。梁正認為,《管理辦法》從三方面給生成式AI的發(fā)展戴上了“籠頭”:一是大模型的數據來(lái)源要可靠;二是對AI生成的內容應履行告知義務(wù);三是一旦造成損害,相關(guān)責任方需要承擔責任。他建議,對生成式AI實(shí)行分級分類(lèi)管理。比如,對某些高風(fēng)險領(lǐng)域應該謹慎或嚴格控制使用生成式AI,而對一般的辦公娛樂(lè )場(chǎng)合,只要標注出AI生成內容即可。
與其焦慮,不如用技術(shù)規制技術(shù)
如果把生成式AI比作“矛”,那么檢測其安全性的公司就是“盾”。目前,在全球范圍內,“盾”公司的數量并不多。由清華大學(xué)人工智能研究院孵化的瑞萊智慧(Real AI)就是一家“盾”公司,他們負責檢測內容是否由AI生成,以及給大模型的安全系統“挑刺”。
“人類(lèi)需要保持辨識信息真偽的能力,只要能識別出哪些內容是AI生成的,并精準告知公眾,這項技術(shù)也沒(méi)有那么可怕?!睆垈娬f(shuō),目前他們研發(fā)了一套AI內容識別系統,在識別能力上處于國際領(lǐng)先。
比識別AI內容更重要的,是彌補第二代AI本身的安全缺陷。張偉強解釋說(shuō),AI的“智力”提高后,需要視其為社會(huì )生活中的一位新參與者。但第二代AI本身的運算過(guò)程是個(gè)“黑箱”,相當于你無(wú)法看透這位新伙伴的所思所想(可解釋性差),且他還極易被欺騙犯錯(魯棒性差)。至今在大模型中無(wú)法徹底解決的“幻覺(jué)”問(wèn)題就是由此產(chǎn)生,即使數據來(lái)源準確可靠,但大模型仍可能會(huì )“一本正經(jīng)地胡說(shuō)八道”。
不可否認,ChatGPT開(kāi)啟了一場(chǎng)全球范圍的大模型“軍備競賽”,大廠(chǎng)紛紛發(fā)布各自的大模型系統,不少小公司也推出了基于自身領(lǐng)域的“小模型”。張偉強表示,市場(chǎng)的充分競爭固然有利于行業(yè)快速發(fā)展,但其先天的安全不足同樣需要引起重視。比如,上個(gè)月,瑞萊智慧僅通過(guò)添加少量對抗樣本,就讓Meta發(fā)布的史上首個(gè)圖像分割模型SAM失靈,顯示出大模型在安全性方面仍然任重道遠。
梁正認為,未來(lái),當人們回望現在所經(jīng)歷的這個(gè)階段,會(huì )清晰認識到AI的工具屬性。為了保證它永遠只是工具,我們必須及時(shí)跟進(jìn)它的動(dòng)向,敏捷治理,就像歷史上人類(lèi)曾經(jīng)一貫為之的那樣。
相關(guān)稿件