近日,美國細胞出版社旗下《模式》雜志發(fā)表了一篇來(lái)自麻省理工學(xué)院等機構研究團隊的文章。該文章稱(chēng),研究人員花了一段時(shí)間跟進(jìn)臉書(shū)母公司“元”開(kāi)發(fā)的西塞羅人工智能(AI)系統的“成長(cháng)歷程”。在一個(gè)虛擬外交戰略游戲中,它被設計成人類(lèi)玩家的對手。最新進(jìn)展是,為達成游戲目標,它“主動(dòng)背叛了盟友”。
文章還援引其他研究團隊的研究成果稱(chēng),目前已經(jīng)有多個(gè)人工智能系統學(xué)會(huì )了欺騙,在棋牌游戲中表現尤為明顯。許多人工智能都能熟練地使用“虛張聲勢的策略”。
對此,研究人員不無(wú)擔憂(yōu)地評價(jià)說(shuō),通過(guò)“習得性欺騙”,一些人工智能已經(jīng)“系統性地”學(xué)會(huì )了“操縱”他人。
“習得性欺騙”是“習得性無(wú)助”的衍生概念。后者是美國心理學(xué)家塞利格曼于1967年在研究動(dòng)物時(shí)提出的。他用狗做了一項實(shí)驗。起初,他把狗關(guān)在籠子里,只要蜂音器一響,籠子就會(huì )通電,因為被困,狗根本無(wú)處可逃,只能承受電擊。經(jīng)過(guò)多次實(shí)驗后,只要蜂音器一響,狗就開(kāi)始顫抖、哀嚎,即便后來(lái)研究人員打開(kāi)了籠子的鎖,甚至將籠門(mén)大敞,狗也不會(huì )逃跑,而是繼續蜷縮在原地等待接受電擊。這就是習得性無(wú)助。
后來(lái),又有心理學(xué)家進(jìn)一步拓展了習得性無(wú)助的適用范圍。研究認為,習得什么并不是問(wèn)題的關(guān)鍵,習得本身才是。經(jīng)過(guò)一次次反復“訓練”,人也好、動(dòng)物也好,都會(huì )形成定向的心理預期,進(jìn)而形成固定的行為習慣。比如,經(jīng)常得到肯定與鼓勵的人會(huì )出現“習得性自信”,哪怕遭遇了失敗也不會(huì )輕易陷入自我懷疑;家里的寵物如果與主人相處融洽,則會(huì )“習得性賣(mài)萌”,而且賣(mài)萌水平還會(huì )隨著(zhù)時(shí)間的推移越來(lái)越高。
人工智能的“習得性欺騙”也是同樣的道理。當人工智能受系統錯誤、算法沖突等小概率因素影響,第一次通過(guò)欺騙行為達成了目標結果,這種行為就會(huì )被歸為一種“可以提高成功率的算法”,并在后續訓練中被一次次強化。而且,鑒于習得本身就是一種“類(lèi)算法行為”,人工智能的學(xué)習效率必然比人類(lèi)高很多。
這一研究結果又一次將業(yè)界已經(jīng)擔心許久的問(wèn)題擺在了臺面上:人工智能是否會(huì )給人類(lèi)社會(huì )帶來(lái)安全隱患?
對此,許多研究人員都持悲觀(guān)態(tài)度。有觀(guān)點(diǎn)認為,根本看不到“訓練出一個(gè)在所有情況下都不能實(shí)施欺騙的人工智能模型”的可能性存在,因為再厲害的人類(lèi)工程師也不可能窮盡各種欺騙場(chǎng)景。而且,目前尚未有團隊開(kāi)發(fā)出可信的、“基于算法的、人工智能無(wú)力繞過(guò)或突破的,旨在控制其習得性欺騙行為的‘警戒線(xiàn)’”。簡(jiǎn)而言之,按照目前的技術(shù)水平,人們雖然明知人工智能正在學(xué)習騙人,但對此卻無(wú)能為力。
不過(guò),也有專(zhuān)家從人類(lèi)心理學(xué)的角度給出了解題思路。
近日,英國《自然·人類(lèi)行為》雜志發(fā)表了一篇德國研究機構的科研成果。文章指出,一些大語(yǔ)言模型在評估解讀他人心理狀態(tài)能力的測試中與真人表現相當,甚至在識別諷刺和暗示等測試項目中的表現勝過(guò)許多普通人。不過(guò),這并不意味著(zhù)人工智能擁有“等同于人類(lèi)的能力”,也不意味著(zhù)它們擁有人類(lèi)的“心智”。
解讀和推斷他人心理狀態(tài)的能力被稱(chēng)為“心智理論”,這是人類(lèi)社交互動(dòng)的核心能力,涉及溝通、共情等。研究人員為大語(yǔ)言模型設置了通常用于評估“心智能力”的5項測試,分別為識別錯誤信念、諷刺、失言、暗示和誤導信息。結果顯示,在所有5項測試中,“成績(jì)”最好的大語(yǔ)言模型在識別諷刺、暗示、誤導信息3項上的表現優(yōu)于人類(lèi),在識別錯誤信念方面的表現與人類(lèi)大體相當,僅在識別失言的測試中遜于人類(lèi)。其他大語(yǔ)言模型也大多在識別失言時(shí)折戟。這意味著(zhù),至少在短時(shí)間內,在交流中穿插“失言測試”,有助于人類(lèi)判斷和自己聊天的究竟是真實(shí)的人類(lèi)還是大語(yǔ)言模型,進(jìn)而對可能出現的欺騙行為產(chǎn)生警惕。
另有社會(huì )學(xué)者提出了人工智能“道德假說(shuō)”。此派觀(guān)點(diǎn)認為,在通往“真正的智能”的道路上,“感覺(jué)”是至關(guān)重要的一步,即擁有主觀(guān)體驗的能力。比如,聊天機器人可能會(huì )在安慰你時(shí)說(shuō),“聽(tīng)到你這么難過(guò)我很心痛”,但實(shí)際上它沒(méi)有心,也不知道什么是心痛,所謂的心痛不過(guò)是一堆代碼被翻譯成了人類(lèi)的語(yǔ)言。而主觀(guān)體驗恰恰是產(chǎn)生道德的先決條件。因此,此派觀(guān)點(diǎn)頗為樂(lè )觀(guān)地認為,不必對人工智能會(huì )騙人這件事過(guò)于擔憂(yōu)。今天的人工智能之所以會(huì )毫無(wú)顧忌地主動(dòng)學(xué)習騙人,很大程度上是因為它們沒(méi)有感覺(jué)。未來(lái),當它們進(jìn)化出感覺(jué),進(jìn)而形成道德,善良的人工智能將有意識地開(kāi)始自我約束,并主動(dòng)加入對抗邪惡人工智能的陣營(yíng)。從這個(gè)意義上講,一切不過(guò)是人類(lèi)社會(huì )的翻版:人分好壞,人工智能也是。 (本文來(lái)源:經(jīng)濟日報 作者:江子揚)
相關(guān)稿件