如今,人機(jī)協(xié)同在業(yè)界有著廣泛的應(yīng)用場(chǎng)景。而人機(jī)協(xié)同在業(yè)界的流行,也促使越來(lái)越多的學(xué)者關(guān)注這一領(lǐng)域,以探究人在AI的協(xié)助下會(huì)產(chǎn)生什么樣的行為、決策等變化。
北京大學(xué)光華管理學(xué)院市場(chǎng)營(yíng)銷學(xué)系副教授張穎婕,特別關(guān)注從人機(jī)協(xié)同和共同進(jìn)化的視角來(lái)系統(tǒng)性設(shè)計(jì)評(píng)估智能策略,在提升商業(yè)價(jià)值的同時(shí)兼顧社會(huì)公平性。研究發(fā)現(xiàn),人機(jī)協(xié)同在提升系統(tǒng)性能和效率方面存在巨大潛力;而在人機(jī)協(xié)同過(guò)程中,也需要充分考慮人的因素和作用。
技術(shù)驅(qū)動(dòng)下的人機(jī)協(xié)同發(fā)展
在AI技術(shù)相對(duì)成熟的現(xiàn)階段,張穎婕發(fā)起叩問(wèn),人還能發(fā)揮多大的作用呢?人是否能挖掘出AI未能觸及或者未能實(shí)現(xiàn)的價(jià)值呢?張穎婕以AI的發(fā)展為切入點(diǎn),思考在人工智能進(jìn)入社會(huì)后,人類應(yīng)當(dāng)如何發(fā)揮主觀能動(dòng)性,由此引出了自身關(guān)于人機(jī)協(xié)作的研究主題,以及人類應(yīng)當(dāng)如何實(shí)現(xiàn)自身價(jià)值的問(wèn)題。
基于這一問(wèn)題,張穎婕回顧了學(xué)術(shù)界對(duì)不同情境下AI應(yīng)用的最新研究,并介紹了AI技術(shù)在業(yè)界受到了哪些挑戰(zhàn)。
張穎婕表示,當(dāng)前人工智能研究領(lǐng)域有兩類學(xué)者:一類關(guān)注技術(shù)方向上的突破與演進(jìn),如借由算法和大數(shù)據(jù)改進(jìn)模型,優(yōu)化股票走勢(shì)預(yù)測(cè),促進(jìn)商業(yè)智能化轉(zhuǎn)型;另一類則將目光聚焦在“人”身上,基于現(xiàn)有技術(shù),研究如何更好地配合人工智能,如何在現(xiàn)有技術(shù)條件下與人工智能進(jìn)行互動(dòng)。她屬于后者。
關(guān)于人在人機(jī)協(xié)作中的行為特點(diǎn),近年來(lái)的研究也做了不少探索嘗試:一方面是AI-Aversion現(xiàn)象,即人由于缺乏信任、依賴個(gè)人經(jīng)驗(yàn)和直覺、擔(dān)憂低層次工種被取代等原因,對(duì)AI存在“抵制”,另一方面是Cyborg Effect現(xiàn)象,這是前者的極端反面,即AI給定決策建議后人的能動(dòng)性下降,人更加依賴AI而不愿意主動(dòng)決策。
在她看來(lái),隨著AI的“類人”性以及自身算法能力的不斷提升,再加上AI的“商業(yè)版圖”的不斷壯大,AI和人共存合作的可能性和必要性也在不斷增強(qiáng)。換句話說(shuō),人是難以避免和AI產(chǎn)生接觸的。
消費(fèi)者與AI制造
先前的研究表明,消費(fèi)者不太喜歡機(jī)器人客服,因?yàn)闄C(jī)器人客服不夠聰明,無(wú)法與消費(fèi)者共情。然而,隨著人工智能技術(shù)的不斷發(fā)展,如ChatGPT等智能AI的出現(xiàn),這些問(wèn)題正在逐漸解決。現(xiàn)在的AI產(chǎn)品已經(jīng)進(jìn)化到與人相似的程度,消費(fèi)者可能會(huì)慢慢接受這些產(chǎn)品。
因此,張穎婕認(rèn)為先前的研究結(jié)論可能不再適用,她想探索的是在新的技術(shù)背景下,消費(fèi)者對(duì)于AI產(chǎn)品的態(tài)度和接受度。
當(dāng)AI已經(jīng)成熟了,當(dāng)世界上AI已經(jīng)很普遍了,作為消費(fèi)者的自己,會(huì)怎么樣面對(duì)?在張穎婕看來(lái),機(jī)器學(xué)習(xí)是一個(gè)向上走的趨勢(shì),會(huì)越來(lái)越智能,這是毋庸置疑的。作為消費(fèi)者或者作為人這個(gè)群體來(lái)說(shuō),對(duì)人工智能的態(tài)度,已經(jīng)或者即將不能用“AI不夠聰明”來(lái)作為抵制AI產(chǎn)品的理由了。
“但不知道人們的態(tài)度會(huì)不會(huì)是一個(gè)曲線,就是當(dāng)機(jī)器進(jìn)化到一定程度的時(shí)候,人們會(huì)先欣然接受并享受AI制造,但是當(dāng)AI進(jìn)一步進(jìn)化之后,消費(fèi)者或用戶的態(tài)度又會(huì)如何則是一個(gè)難以預(yù)測(cè)的問(wèn)題。我們需要持續(xù)跟進(jìn)并及時(shí)作出預(yù)測(cè)?!睆埛f婕說(shuō)。
張穎婕表示,在不同領(lǐng)域人與AI之間的合作和決策過(guò)程可能因情境而異,需要考慮不同的因素。在金融領(lǐng)域進(jìn)行的研究可能得出的結(jié)論與其他領(lǐng)域不同,因?yàn)椴煌袠I(yè)的工作特點(diǎn)和需求不同。
在某些情況下,人工審核決策可能沒有任何作用,而人工智能能夠以更高的準(zhǔn)確率來(lái)做出決策。在另外的場(chǎng)景中,人類仍然具有價(jià)值,需要通過(guò)刺激來(lái)發(fā)揮他們的作用,這可能涉及提供大量數(shù)據(jù)、解釋人工智能的決策以及使用激勵(lì)方法。
人機(jī)協(xié)同的應(yīng)用與提升
在張穎婕看來(lái),AI賦能生產(chǎn)力是現(xiàn)階段AI持續(xù)進(jìn)化帶來(lái)的一大益處,甚至是最大益處。但AI的賦能同樣離不開有效的人機(jī)協(xié)同。機(jī)器與人如果能發(fā)揮協(xié)同作用,決策的整體效果會(huì)更好。
針對(duì)這一情況,張穎婕的研究試圖解答三個(gè)問(wèn)題:一是通過(guò)系統(tǒng)設(shè)計(jì)探索人類在人機(jī)協(xié)作中的貢獻(xiàn);二是解析這一人機(jī)協(xié)作的生成機(jī)制與原因;三是探討如何利用人類的異質(zhì)性來(lái)提升協(xié)作效能。
張穎婕選取亞洲的小額貸款公司為研究對(duì)象,對(duì)比了人工和AI在批準(zhǔn)借款人違約率方面的決策差異。實(shí)驗(yàn)結(jié)果顯示:在AI與人無(wú)合作(分別獨(dú)自決策)的情況下,AI決策比人工決策結(jié)果違約率更低,給AI提供大數(shù)據(jù)能夠顯著降低違約率(但數(shù)據(jù)量對(duì)人工決策結(jié)果違約率無(wú)顯著影響);而在給人工提供AI決策建議且這一建議與人工決策結(jié)論產(chǎn)生分歧時(shí),有60%—80%的人會(huì)選擇接受AI的決策建議改變自己的決策(當(dāng)提供AI決策依據(jù)時(shí)這一比例會(huì)更高)。
結(jié)果揭示了幾個(gè)關(guān)鍵的發(fā)現(xiàn)。首先,當(dāng)人工和AI各自獨(dú)立做決策時(shí),AI的判斷準(zhǔn)確率明顯超過(guò)人工,特別是當(dāng)數(shù)據(jù)量大的情況下,人在決策時(shí)明顯存在信息過(guò)載等問(wèn)題。其次,在小數(shù)據(jù)情況下,人的參與并不能顯著提升合作效率。并且,在大數(shù)據(jù)環(huán)境下,人類只有在被告知AI決策邏輯的前提下,才能對(duì)違約率判斷產(chǎn)生積極的價(jià)值。
換言之,如果信息復(fù)雜度(即大數(shù)據(jù)環(huán)境)和AI決策邏輯信息二者不能同時(shí)滿足時(shí),人類信審員在AI的輔助下要么全盤聽從,要么錯(cuò)誤地堅(jiān)持己見,從而使得合作效率與AI獨(dú)自決策時(shí)相差無(wú)幾;但兩個(gè)條件的同時(shí)滿足卻能及時(shí)激發(fā)人工展現(xiàn)其獨(dú)立思考和糾錯(cuò)能力,這恰恰體現(xiàn)了人類在人機(jī)協(xié)同場(chǎng)景下的獨(dú)特價(jià)值。
“在大數(shù)據(jù)背景下,人工難以有效運(yùn)用如購(gòu)買記錄等大數(shù)據(jù)信息,并將其與自身決策融合,盡管仍依賴傳統(tǒng)數(shù)據(jù),人工的判斷能力并未顯著提升?!睆埛f婕說(shuō)。
相比之下,AI在處理大數(shù)據(jù)信息上,顯示出更強(qiáng)的提取、轉(zhuǎn)化和運(yùn)用能力,從而得出更精準(zhǔn)的判斷。另外,當(dāng)面對(duì)中間情況且處于糾結(jié)狀態(tài)時(shí),人工更傾向于依賴AI的決策,但當(dāng)申請(qǐng)人的情況較為極端時(shí),人工通常會(huì)依賴自己的判斷而非接受AI的建議。
算法面前人的情感不可忽視
張穎婕的研究,揭示了人機(jī)協(xié)同在提升系統(tǒng)性能和效率方面的巨大潛力。在互聯(lián)網(wǎng)金融借貸的實(shí)驗(yàn)中,人機(jī)協(xié)作行為使得整個(gè)系統(tǒng)的預(yù)測(cè)正確率提升了一倍,系統(tǒng)違約率從原先的6%降低到3.8%。這項(xiàng)研究表明,人機(jī)協(xié)同可以提高系統(tǒng)的性能和效率,同時(shí)也需要充分考慮人的因素和作用。
研究發(fā)現(xiàn),在引入機(jī)器學(xué)習(xí)算法進(jìn)行先期預(yù)測(cè)推薦后,人工審核員在大部分情況下會(huì)傾向于聽從算法的意見。然而,當(dāng)提供了用戶大數(shù)據(jù)以及算法的具體機(jī)制解釋之后,人們會(huì)在看到算法建議之后,自發(fā)地進(jìn)行一個(gè)重思考的過(guò)程,不再一味地認(rèn)為AI是好的,而是對(duì)AI進(jìn)行有效修正。
值得關(guān)注的是,人的情感也應(yīng)當(dāng)是人機(jī)協(xié)同中被考量的重要因素,這涉及AI向善和倫理問(wèn)題。在外賣騎手的例子中,騎手有時(shí)候并不會(huì)遵從算法規(guī)劃的路線,這可能由于算法決策沒有考慮到騎手的情況,例如騎手位置、疲勞程度、實(shí)際路況等,亦或是騎手的過(guò)往經(jīng)驗(yàn)讓他們做出背離算法的決策。
“機(jī)器只能給你建議,最后還得是人來(lái)完成。”張穎婕表示,算法其實(shí)是非常厲害的,如果騎手能夠按照算法推薦的路線,他的收益一定是最高的。但事實(shí)卻是,百分之七八十的騎手,都不會(huì)完全遵從算法的推薦。
在張穎婕看來(lái),這些問(wèn)題不是人工智能本身造成的,而是使用者和管理者存在的問(wèn)題,如平臺(tái)方和企業(yè)。人機(jī)協(xié)同固然可以提高系統(tǒng)的性能和效率,但也需要充分考慮人的因素和作用。在設(shè)計(jì)和應(yīng)用AI技術(shù)時(shí),需要考慮到人的需求和利益,以確保AI技術(shù)能夠真正為人類服務(wù)。
那么人與AI,什么時(shí)候能達(dá)到最優(yōu)的調(diào)和效果呢?
一種新的算法策略出現(xiàn)了:即算法會(huì)去預(yù)測(cè)人會(huì)不會(huì)違約,會(huì)不會(huì)不遵守算法,而把人的情感考慮到算法的模型里邊。在設(shè)計(jì)者看來(lái),這種策略按算法來(lái)說(shuō)可能不是最優(yōu)的,但一定是算法加人最優(yōu)的。
“如果在特定的場(chǎng)景下,只能依靠人來(lái)做最后決策的話,你就要考慮全局,把人的情感也考慮進(jìn)去?!睆埛f婕說(shuō)。
參考文獻(xiàn)
1、Lu, Tian and Zhang, Yingjie, 1 + 1 > 2? Information, Humans, and Machines. Available at SSRN: https://ssrn.com/abstract=4045718
2、Lu, Tian, Zhang, Yingjie, Li, Beibei. Profit vs. Equality? The Case of Financial Risk Assessment and A New Perspective on Alternative Data. MIS Quarterly, 2023, 47(4): 1517-1556.
張穎婕,光華管理學(xué)院市場(chǎng)營(yíng)銷學(xué)系副教授,卡內(nèi)基梅隆大學(xué)博士(信息管理系統(tǒng)方向),曾就職于美國(guó)德州大學(xué)達(dá)拉斯分校,主要研究領(lǐng)域包括跨學(xué)科方法論研究、人機(jī)協(xié)同、共享經(jīng)濟(jì)、社交媒體、用戶行為等。
相關(guān)稿件