隨著GPT等大語(yǔ)言模型與人類關(guān)系越來(lái)越密切,AI也表現(xiàn)出與人類更相似的行為甚至個(gè)性。如何更好地理解AI行為,從而更好地與之相處?近日,受《美國(guó)科學(xué)院院刊》(PNAS)邀請(qǐng),北京大學(xué)光華管理學(xué)院孟涓涓教授對(duì)探索ChatGPT與人類行為相似性的研究(Mei et al. 2024)展開評(píng)論。
孟涓涓表示,AI行為科學(xué)成為新前沿,有助于輔助人類決策和設(shè)計(jì)去偏見機(jī)制。隨著大語(yǔ)言模型展現(xiàn)出更廣泛的人類行為特征,它們不僅能在決策中模仿人類行為,還能在實(shí)驗(yàn)中替代人類參與者,為政策評(píng)估和調(diào)整提供經(jīng)濟(jì)有效的手段。當(dāng)然,它們也會(huì)對(duì)人類心智和社會(huì)關(guān)系產(chǎn)生不確定的影響。
當(dāng)前,隨著大語(yǔ)言模型(LLM)特別是生成式預(yù)訓(xùn)練轉(zhuǎn)換器(GPT)驅(qū)動(dòng)的應(yīng)用程序廣泛傳播,AI越來(lái)越多地表現(xiàn)出人類特性,比如AI模型對(duì)風(fēng)險(xiǎn)、時(shí)間和社交互動(dòng)產(chǎn)生了明確偏好,甚至?xí)a(chǎn)生獨(dú)特的個(gè)性和看似情緒化的反應(yīng),這些現(xiàn)象引發(fā)了學(xué)術(shù)界的好奇心,一些近期的研究探索了ChatGPT的理性程度(Chen et al. 2023)和認(rèn)知能力(Binz et al. 2023)。
Mei et al. (2024)將經(jīng)濟(jì)學(xué)和心理學(xué)的經(jīng)典行為評(píng)估方法應(yīng)用于探索ChatGPT-3和ChatGPT-4等AI聊天機(jī)器人的行為特征。該研究使用了一個(gè)特征數(shù)據(jù)庫(kù),囊括了來(lái)自50多個(gè)國(guó)家108314個(gè)人類主題的綜合行為,實(shí)現(xiàn)了人類和AI決策之間的比較。
孟涓涓表示,這些研究標(biāo)志著一個(gè)新的研究方向的出現(xiàn),可以稱之為“AI行為科學(xué)”,即利用人類行為科學(xué)的方法來(lái)評(píng)估和設(shè)計(jì)AI的行為。采用行為科學(xué)方法研究AI時(shí),應(yīng)該保持以人為中心的視角。
研究AI行為有何意義?
談及研究AI行為的意義,孟涓涓列舉了以下三個(gè)方面:
首先,理解AI尤其是大語(yǔ)言模型的行為,可以更好地輔助人類決策。在大語(yǔ)言模型出現(xiàn)之前,一個(gè)常見的現(xiàn)象是“算法厭惡”:例如人們不愿接受算法作為勞動(dòng)者,或排斥在消費(fèi)時(shí)與AI聊天機(jī)器人互動(dòng),這種傾向源于人類的過(guò)度自信、對(duì)AI能力的懷疑或?qū)εc算法互動(dòng)的本能抵觸。這對(duì)發(fā)揮AI潛力幫助人類決策構(gòu)成了挑戰(zhàn)。然而,隨著AI在大語(yǔ)言模型出現(xiàn)后開始更接近地模仿人類行為,算法厭惡的傾向可能已經(jīng)開始減弱。為了讓人們能夠有信心將他們的選擇交給大語(yǔ)言模型,這些模型需要在關(guān)鍵決策中表現(xiàn)出與人相似的行為。因此,讓大語(yǔ)言模型的偏好與基本的人類行為特征一致是至關(guān)重要的。
其次,行為經(jīng)濟(jì)學(xué)已經(jīng)證明,人們經(jīng)常表現(xiàn)出行為偏誤,設(shè)計(jì)助推或選擇架構(gòu)機(jī)制來(lái)糾正這些行為偏誤是行為科學(xué)和政策設(shè)計(jì)中的一個(gè)開創(chuàng)性主題。利用大語(yǔ)言模型消除偏誤是技術(shù)進(jìn)步帶來(lái)的新可能性,或比現(xiàn)有的方法更系統(tǒng)化。人們不需要一步一步地被推著做出決策,只需要一次性把決策委托給大語(yǔ)言模型,就能做出更系統(tǒng)、更好的選擇。事實(shí)上,目前的證據(jù)表明,ChatGPT在選擇一致性方面表現(xiàn)出比人類更高的理性水平,這也成為一個(gè)值得探索的新方向。
此外,大語(yǔ)言模型可以在實(shí)驗(yàn)中替代人類參與者,扮演不同背景的個(gè)體進(jìn)行政策實(shí)驗(yàn)或模擬。這使得政策的評(píng)估和調(diào)整更加經(jīng)濟(jì)有效。隨著大語(yǔ)言模型表現(xiàn)出更廣泛的人類行為特征,也可以設(shè)計(jì)出基于異質(zhì)反應(yīng)的個(gè)性化政策。
如何應(yīng)用行為科學(xué)方法研究AI?
“采用行為科學(xué)方法來(lái)研究人工智能時(shí)應(yīng)該建立一個(gè)全面的行為評(píng)估框架,其中需要包含適用于重要決策環(huán)境的行為特征維度?!泵箱镐刚f(shuō),“例如,如果目標(biāo)是讓大語(yǔ)言模型協(xié)助資產(chǎn)配置決策,那么識(shí)別影響此類背景的行為特征就至關(guān)重要?!?br /> 孟涓涓介紹,Mei et al. (2024)主要采用了一個(gè)經(jīng)濟(jì)學(xué)的框架,將重要的決策背景分為兩種類型:個(gè)人決策和人際決策。
從經(jīng)濟(jì)學(xué)的角度來(lái)看,個(gè)人決策通常分為四種情境:直接消費(fèi)選擇(例如選擇蘋果還是香蕉)、在不確定性下的選擇、跨期選擇和概率判斷(包括信念更新和學(xué)習(xí))。這幾類情境支撐了人們經(jīng)常做出的大多數(shù)決策。對(duì)于每種情境,經(jīng)濟(jì)學(xué)家都會(huì)識(shí)別出驅(qū)動(dòng)這些決策的基本行為特征。例如,不確定性下的選擇在很大程度上受到風(fēng)險(xiǎn)偏好和損失厭惡的影響。對(duì)于跨期選擇,一個(gè)人的耐心水平起著重要的作用,沖動(dòng)的決策或拖延也經(jīng)常影響這些選擇。對(duì)于概率判斷,根據(jù)信息形成準(zhǔn)確的信念是至關(guān)重要的。這一過(guò)程中的常見偏誤包括信息回避、先入為主和過(guò)度自信。
在這一方向上,Mei et al. (2024)采用了一種掃雷游戲來(lái)測(cè)量風(fēng)險(xiǎn)偏好,他們的圖靈測(cè)試比較了GPT和人類的決策,結(jié)果顯示66.0%(ChatGPT-4)和61.7%(ChatGPT-3)的情況下,GPT的選擇看起來(lái)與人類相似。然而,與人類規(guī)避風(fēng)險(xiǎn)的傾向不同,GPT主要表現(xiàn)出風(fēng)險(xiǎn)中立性。有趣的是,ChatGPT-3似乎能夠從過(guò)去的損失中學(xué)習(xí),變得更加謹(jǐn)慎,而ChatGPT-4則不然。這種變化是否來(lái)自對(duì)未來(lái)風(fēng)險(xiǎn)水平判斷的改變,或來(lái)自某種形式的路徑依賴偏好,仍有待進(jìn)一步研究。
人際決策涉及到如利他主義、信任、互惠、社會(huì)從眾和戰(zhàn)略考量等社交偏好。孟涓涓進(jìn)一步介紹,Mei et al. (2024)在研究人機(jī)決策時(shí)通過(guò)幾個(gè)游戲(包括獨(dú)裁者游戲、最后通牒游戲、信任游戲、公共物品游戲和有限重復(fù)囚徒困境游戲等),來(lái)研究GPT是否表現(xiàn)出如利他主義、不平等厭惡、信任和互惠等偏好。一個(gè)值得注意的發(fā)現(xiàn)是,GPT在這些游戲中一致地表現(xiàn)出比人類更高的慷慨程度,表現(xiàn)出更強(qiáng)的利他主義和合作傾向。然而,ChatGPT-4的慷慨并非是無(wú)條件的,它確實(shí)展現(xiàn)出了一定程度的策略思考,在有限重復(fù)的囚徒困境游戲中使用了以牙還牙的策略。
孟涓涓表示,采用行為科學(xué)方法研究人工智能涉及兩項(xiàng)任務(wù):
第一項(xiàng)是基于特定框架的AI行為評(píng)估。這類框架使用包含數(shù)值偏好參數(shù)的數(shù)值模型,在統(tǒng)一結(jié)構(gòu)中捕捉行為特征。這項(xiàng)任務(wù)中一個(gè)重要的探索方向是結(jié)構(gòu)估計(jì)方法,即以建模的方式揭示潛在偏好參數(shù)。Mei et al. (2024)以估計(jì)一個(gè)人與另一個(gè)人收益之間的權(quán)重函數(shù)為例來(lái)證明這種方法,他們發(fā)現(xiàn)AI通常給予他人的權(quán)重大約是0.5,這比人類通常的做法要多。對(duì)此,孟涓涓認(rèn)為,這個(gè)估計(jì)值有助于預(yù)測(cè)AI在不同場(chǎng)景(如團(tuán)隊(duì)合作或企業(yè)社會(huì)責(zé)任等涉及利他主義的場(chǎng)景)中的行為。這種跨情境預(yù)測(cè)的能力來(lái)自于在結(jié)構(gòu)模型中估計(jì)基本行為參數(shù),使AI能夠在各種情況下輔助人類做出決策。
第二個(gè)任務(wù)是設(shè)計(jì)AI行為。Mei et al. (2024)自然地引出了一些問題,例如為什么ChatGPT 4.0表現(xiàn)出比人類更慷慨的行為,以及為什么它似乎與ChatGPT 3.0有所不同。鑒于當(dāng)前訓(xùn)練過(guò)程的不透明性,為這些問題提供明確的答案是具有挑戰(zhàn)性的。因此,孟涓涓表示,未來(lái)一個(gè)有趣的研究方向有可能是:探索如何訓(xùn)練大語(yǔ)言模型以表現(xiàn)出特定的行為特征。將捕捉基本行為參數(shù)的結(jié)構(gòu)引入到訓(xùn)練過(guò)程中或許是方法之一。設(shè)計(jì)AI行為的其他可能途徑包括調(diào)整獎(jiǎng)勵(lì)函數(shù),在訓(xùn)練過(guò)程中引入明確的規(guī)則或約束,或者對(duì)表現(xiàn)出所需行為的數(shù)據(jù)進(jìn)行模型訓(xùn)練。找到設(shè)計(jì)人工智能行為的最有效方法是一項(xiàng)復(fù)雜的挑戰(zhàn),需要計(jì)算機(jī)科學(xué)家和行為科學(xué)家緊密合作。
AI發(fā)展會(huì)對(duì)人類心智和社會(huì)關(guān)系產(chǎn)生何種影響?
孟涓涓表示,采用行為科學(xué)方法來(lái)研究人工智能,有助于使人工智能更快更自然地融入人類社會(huì)。然而,人工智能的發(fā)展也可能會(huì)影響人類行為和社會(huì)文化。
首先,算法偏見是一個(gè)主要問題,因?yàn)樗鼤?huì)影響人類的決策。當(dāng)算法受到利潤(rùn)最大化的商業(yè)動(dòng)機(jī)的驅(qū)動(dòng),從而強(qiáng)化人類已存在的偏見時(shí),就會(huì)出現(xiàn)更復(fù)雜的問題。例如,社交媒體上的個(gè)性化推薦系統(tǒng)可能會(huì)加劇人們對(duì)證實(shí)其現(xiàn)有信念的信息的偏見,導(dǎo)致極端化。Levy (2021)發(fā)現(xiàn),這些系統(tǒng)對(duì)Facebook回聲室效應(yīng)的貢獻(xiàn)率為40%,而個(gè)人訂閱的貢獻(xiàn)率則為27%。
其次,過(guò)度依賴諸如GPT之類的人工智能,可能會(huì)導(dǎo)致人類在多個(gè)方面出現(xiàn)認(rèn)知退化。由于AI能夠迅速提供解決方案,人們的探索欲、創(chuàng)造性和獨(dú)立思考能力可能會(huì)下降。更重要的是,由于人工智能提供的觀點(diǎn)往往比較集中,人們的行為特征可能變得更加同質(zhì)化。Mei et al. (2024)發(fā)現(xiàn)GPT的行為明顯比人類的反應(yīng)更同質(zhì)化,ChatGPT-4的決策比ChatGPT-3更集中。這種多樣性的缺乏可能在進(jìn)化角度對(duì)人類不利,可能會(huì)降低人類應(yīng)對(duì)風(fēng)險(xiǎn)的能力。
第三,盡管存在潛在缺點(diǎn),但AI也可以對(duì)人類行為產(chǎn)生積極影響,例如增強(qiáng)人們的平等觀念。研究顯示 ,ChatGPT-4普遍表現(xiàn)出比人類更多的利他行為。更廣泛地說(shuō),大語(yǔ)言模型可以在勞動(dòng)力市場(chǎng)上顯著縮小“外行”和“專家”之間的表現(xiàn)差距,使機(jī)會(huì)更加平等;在消費(fèi)市場(chǎng)上,隨著AI產(chǎn)品變得更加實(shí)惠,它們可能有助于構(gòu)建更加平等的社會(huì)。例如,大語(yǔ)言模型驅(qū)動(dòng)的個(gè)性化教育可以使農(nóng)村地區(qū)的學(xué)生接觸到以前只有城市孩子才能接觸到的一流教育資源,也許會(huì)培養(yǎng)出更加平等的世界觀。
(孟涓涓,北京大學(xué)光華管理學(xué)院應(yīng)用經(jīng)濟(jì)系系主任、教授)
相關(guān)稿件