隨著(zhù)GPT等大語(yǔ)言模型與人類(lèi)關(guān)系越來(lái)越密切,AI也表現出與人類(lèi)更相似的行為甚至個(gè)性。如何更好地理解AI行為,從而更好地與之相處?近日,受《美國科學(xué)院院刊》(PNAS)邀請,北京大學(xué)光華管理學(xué)院孟涓涓教授對探索ChatGPT與人類(lèi)行為相似性的研究(Mei et al. 2024)展開(kāi)評論。
孟涓涓表示,AI行為科學(xué)成為新前沿,有助于輔助人類(lèi)決策和設計去偏見(jiàn)機制。隨著(zhù)大語(yǔ)言模型展現出更廣泛的人類(lèi)行為特征,它們不僅能在決策中模仿人類(lèi)行為,還能在實(shí)驗中替代人類(lèi)參與者,為政策評估和調整提供經(jīng)濟有效的手段。當然,它們也會(huì )對人類(lèi)心智和社會(huì )關(guān)系產(chǎn)生不確定的影響。
當前,隨著(zhù)大語(yǔ)言模型(LLM)特別是生成式預訓練轉換器(GPT)驅動(dòng)的應用程序廣泛傳播,AI越來(lái)越多地表現出人類(lèi)特性,比如AI模型對風(fēng)險、時(shí)間和社交互動(dòng)產(chǎn)生了明確偏好,甚至會(huì )產(chǎn)生獨特的個(gè)性和看似情緒化的反應,這些現象引發(fā)了學(xué)術(shù)界的好奇心,一些近期的研究探索了ChatGPT的理性程度(Chen et al. 2023)和認知能力(Binz et al. 2023)。
Mei et al. (2024)將經(jīng)濟學(xué)和心理學(xué)的經(jīng)典行為評估方法應用于探索ChatGPT-3和ChatGPT-4等AI聊天機器人的行為特征。該研究使用了一個(gè)特征數據庫,囊括了來(lái)自50多個(gè)國家108314個(gè)人類(lèi)主題的綜合行為,實(shí)現了人類(lèi)和AI決策之間的比較。
孟涓涓表示,這些研究標志著(zhù)一個(gè)新的研究方向的出現,可以稱(chēng)之為“AI行為科學(xué)”,即利用人類(lèi)行為科學(xué)的方法來(lái)評估和設計AI的行為。采用行為科學(xué)方法研究AI時(shí),應該保持以人為中心的視角。
研究AI行為有何意義?
談及研究AI行為的意義,孟涓涓列舉了以下三個(gè)方面:
首先,理解AI尤其是大語(yǔ)言模型的行為,可以更好地輔助人類(lèi)決策。在大語(yǔ)言模型出現之前,一個(gè)常見(jiàn)的現象是“算法厭惡”:例如人們不愿接受算法作為勞動(dòng)者,或排斥在消費時(shí)與AI聊天機器人互動(dòng),這種傾向源于人類(lèi)的過(guò)度自信、對AI能力的懷疑或對與算法互動(dòng)的本能抵觸。這對發(fā)揮AI潛力幫助人類(lèi)決策構成了挑戰。然而,隨著(zhù)AI在大語(yǔ)言模型出現后開(kāi)始更接近地模仿人類(lèi)行為,算法厭惡的傾向可能已經(jīng)開(kāi)始減弱。為了讓人們能夠有信心將他們的選擇交給大語(yǔ)言模型,這些模型需要在關(guān)鍵決策中表現出與人相似的行為。因此,讓大語(yǔ)言模型的偏好與基本的人類(lèi)行為特征一致是至關(guān)重要的。
其次,行為經(jīng)濟學(xué)已經(jīng)證明,人們經(jīng)常表現出行為偏誤,設計助推或選擇架構機制來(lái)糾正這些行為偏誤是行為科學(xué)和政策設計中的一個(gè)開(kāi)創(chuàng )性主題。利用大語(yǔ)言模型消除偏誤是技術(shù)進(jìn)步帶來(lái)的新可能性,或比現有的方法更系統化。人們不需要一步一步地被推著(zhù)做出決策,只需要一次性把決策委托給大語(yǔ)言模型,就能做出更系統、更好的選擇。事實(shí)上,目前的證據表明,ChatGPT在選擇一致性方面表現出比人類(lèi)更高的理性水平,這也成為一個(gè)值得探索的新方向。
此外,大語(yǔ)言模型可以在實(shí)驗中替代人類(lèi)參與者,扮演不同背景的個(gè)體進(jìn)行政策實(shí)驗或模擬。這使得政策的評估和調整更加經(jīng)濟有效。隨著(zhù)大語(yǔ)言模型表現出更廣泛的人類(lèi)行為特征,也可以設計出基于異質(zhì)反應的個(gè)性化政策。
如何應用行為科學(xué)方法研究AI?
“采用行為科學(xué)方法來(lái)研究人工智能時(shí)應該建立一個(gè)全面的行為評估框架,其中需要包含適用于重要決策環(huán)境的行為特征維度?!泵箱镐刚f(shuō),“例如,如果目標是讓大語(yǔ)言模型協(xié)助資產(chǎn)配置決策,那么識別影響此類(lèi)背景的行為特征就至關(guān)重要?!?br /> 孟涓涓介紹,Mei et al. (2024)主要采用了一個(gè)經(jīng)濟學(xué)的框架,將重要的決策背景分為兩種類(lèi)型:個(gè)人決策和人際決策。
從經(jīng)濟學(xué)的角度來(lái)看,個(gè)人決策通常分為四種情境:直接消費選擇(例如選擇蘋(píng)果還是香蕉)、在不確定性下的選擇、跨期選擇和概率判斷(包括信念更新和學(xué)習)。這幾類(lèi)情境支撐了人們經(jīng)常做出的大多數決策。對于每種情境,經(jīng)濟學(xué)家都會(huì )識別出驅動(dòng)這些決策的基本行為特征。例如,不確定性下的選擇在很大程度上受到風(fēng)險偏好和損失厭惡的影響。對于跨期選擇,一個(gè)人的耐心水平起著(zhù)重要的作用,沖動(dòng)的決策或拖延也經(jīng)常影響這些選擇。對于概率判斷,根據信息形成準確的信念是至關(guān)重要的。這一過(guò)程中的常見(jiàn)偏誤包括信息回避、先入為主和過(guò)度自信。
在這一方向上,Mei et al. (2024)采用了一種掃雷游戲來(lái)測量風(fēng)險偏好,他們的圖靈測試比較了GPT和人類(lèi)的決策,結果顯示66.0%(ChatGPT-4)和61.7%(ChatGPT-3)的情況下,GPT的選擇看起來(lái)與人類(lèi)相似。然而,與人類(lèi)規避風(fēng)險的傾向不同,GPT主要表現出風(fēng)險中立性。有趣的是,ChatGPT-3似乎能夠從過(guò)去的損失中學(xué)習,變得更加謹慎,而ChatGPT-4則不然。這種變化是否來(lái)自對未來(lái)風(fēng)險水平判斷的改變,或來(lái)自某種形式的路徑依賴(lài)偏好,仍有待進(jìn)一步研究。
人際決策涉及到如利他主義、信任、互惠、社會(huì )從眾和戰略考量等社交偏好。孟涓涓進(jìn)一步介紹,Mei et al. (2024)在研究人機決策時(shí)通過(guò)幾個(gè)游戲(包括獨裁者游戲、最后通牒游戲、信任游戲、公共物品游戲和有限重復囚徒困境游戲等),來(lái)研究GPT是否表現出如利他主義、不平等厭惡、信任和互惠等偏好。一個(gè)值得注意的發(fā)現是,GPT在這些游戲中一致地表現出比人類(lèi)更高的慷慨程度,表現出更強的利他主義和合作傾向。然而,ChatGPT-4的慷慨并非是無(wú)條件的,它確實(shí)展現出了一定程度的策略思考,在有限重復的囚徒困境游戲中使用了以牙還牙的策略。
孟涓涓表示,采用行為科學(xué)方法研究人工智能涉及兩項任務(wù):
第一項是基于特定框架的AI行為評估。這類(lèi)框架使用包含數值偏好參數的數值模型,在統一結構中捕捉行為特征。這項任務(wù)中一個(gè)重要的探索方向是結構估計方法,即以建模的方式揭示潛在偏好參數。Mei et al. (2024)以估計一個(gè)人與另一個(gè)人收益之間的權重函數為例來(lái)證明這種方法,他們發(fā)現AI通常給予他人的權重大約是0.5,這比人類(lèi)通常的做法要多。對此,孟涓涓認為,這個(gè)估計值有助于預測AI在不同場(chǎng)景(如團隊合作或企業(yè)社會(huì )責任等涉及利他主義的場(chǎng)景)中的行為。這種跨情境預測的能力來(lái)自于在結構模型中估計基本行為參數,使AI能夠在各種情況下輔助人類(lèi)做出決策。
第二個(gè)任務(wù)是設計AI行為。Mei et al. (2024)自然地引出了一些問(wèn)題,例如為什么ChatGPT 4.0表現出比人類(lèi)更慷慨的行為,以及為什么它似乎與ChatGPT 3.0有所不同。鑒于當前訓練過(guò)程的不透明性,為這些問(wèn)題提供明確的答案是具有挑戰性的。因此,孟涓涓表示,未來(lái)一個(gè)有趣的研究方向有可能是:探索如何訓練大語(yǔ)言模型以表現出特定的行為特征。將捕捉基本行為參數的結構引入到訓練過(guò)程中或許是方法之一。設計AI行為的其他可能途徑包括調整獎勵函數,在訓練過(guò)程中引入明確的規則或約束,或者對表現出所需行為的數據進(jìn)行模型訓練。找到設計人工智能行為的最有效方法是一項復雜的挑戰,需要計算機科學(xué)家和行為科學(xué)家緊密合作。
AI發(fā)展會(huì )對人類(lèi)心智和社會(huì )關(guān)系產(chǎn)生何種影響?
孟涓涓表示,采用行為科學(xué)方法來(lái)研究人工智能,有助于使人工智能更快更自然地融入人類(lèi)社會(huì )。然而,人工智能的發(fā)展也可能會(huì )影響人類(lèi)行為和社會(huì )文化。
首先,算法偏見(jiàn)是一個(gè)主要問(wèn)題,因為它會(huì )影響人類(lèi)的決策。當算法受到利潤最大化的商業(yè)動(dòng)機的驅動(dòng),從而強化人類(lèi)已存在的偏見(jiàn)時(shí),就會(huì )出現更復雜的問(wèn)題。例如,社交媒體上的個(gè)性化推薦系統可能會(huì )加劇人們對證實(shí)其現有信念的信息的偏見(jiàn),導致極端化。Levy (2021)發(fā)現,這些系統對Facebook回聲室效應的貢獻率為40%,而個(gè)人訂閱的貢獻率則為27%。
其次,過(guò)度依賴(lài)諸如GPT之類(lèi)的人工智能,可能會(huì )導致人類(lèi)在多個(gè)方面出現認知退化。由于A(yíng)I能夠迅速提供解決方案,人們的探索欲、創(chuàng )造性和獨立思考能力可能會(huì )下降。更重要的是,由于人工智能提供的觀(guān)點(diǎn)往往比較集中,人們的行為特征可能變得更加同質(zhì)化。Mei et al. (2024)發(fā)現GPT的行為明顯比人類(lèi)的反應更同質(zhì)化,ChatGPT-4的決策比ChatGPT-3更集中。這種多樣性的缺乏可能在進(jìn)化角度對人類(lèi)不利,可能會(huì )降低人類(lèi)應對風(fēng)險的能力。
第三,盡管存在潛在缺點(diǎn),但AI也可以對人類(lèi)行為產(chǎn)生積極影響,例如增強人們的平等觀(guān)念。研究顯示 ,ChatGPT-4普遍表現出比人類(lèi)更多的利他行為。更廣泛地說(shuō),大語(yǔ)言模型可以在勞動(dòng)力市場(chǎng)上顯著(zhù)縮小“外行”和“專(zhuān)家”之間的表現差距,使機會(huì )更加平等;在消費市場(chǎng)上,隨著(zhù)AI產(chǎn)品變得更加實(shí)惠,它們可能有助于構建更加平等的社會(huì )。例如,大語(yǔ)言模型驅動(dòng)的個(gè)性化教育可以使農村地區的學(xué)生接觸到以前只有城市孩子才能接觸到的一流教育資源,也許會(huì )培養出更加平等的世界觀(guān)。
(孟涓涓,北京大學(xué)光華管理學(xué)院應用經(jīng)濟系系主任、教授)
相關(guān)稿件