參考消息網(wǎng)11月1日報道 據(jù)法國《回聲報》網(wǎng)站10月27日報道,人工智能對地球構(gòu)成的風險是否與戰(zhàn)爭或大流行病一樣大?無論如何,這個行業(yè)的巨頭們都非常重視這一威脅。創(chuàng)造聊天生成預訓練轉(zhuǎn)換器(ChatGPT)的開放人工智能研究中心(OpenAI)剛剛組建一支全新團隊,旨在對抗“人工智能的災(zāi)難性風險”。
這個新團隊將負責監(jiān)控和評估當前和未來人工智能模型的穩(wěn)固性,并保護它們免受一切惡意使用。在預期的風險中,OpenAI尤其指出了網(wǎng)絡(luò)攻擊(可以通過人工智能大規(guī)模自動進行)、化學威脅、生物威脅、放射性和核威脅等……
據(jù)領(lǐng)英網(wǎng)上官方頁面顯示,OpenAI公司員工不到500人。公司沒有進一步說明新團隊的規(guī)模。團隊將由麻省理工學院教授、前谷歌顧問亞歷山大·馬德里領(lǐng)導。
與此同時,OpenAI啟動了一項“挑戰(zhàn)”:開發(fā)者受到邀請來想象攻擊場景和限制其影響的響應(yīng)。這家企業(yè)將為10個“最佳”項目提供2.5萬美元資金。這場競賽還可以讓OpenAI發(fā)現(xiàn)能夠加入這個新團隊的人才。
這一舉措出臺之際,正值英國將主辦首屆人工智能安全峰會。包括OpenAI、谷歌以及政府領(lǐng)導人、科技界和學界人士在內(nèi)的上百參會者將于11月1日齊聚布萊奇利。這次國際會議將會討論人工智能對國家安全的威脅和可能的保障措施。
5月底,包括OpenAI首席執(zhí)行官薩姆·阿爾特曼在內(nèi)的350多名知名人士簽署了一封公開信,引發(fā)了關(guān)于人類對人工智能失去控制的爭論。公開信只有一段話:“降低人工智能帶來的滅絕風險,應(yīng)該與大流行病和核戰(zhàn)爭等其他大規(guī)模風險一起納入全球優(yōu)先事項?!?/p>
類似的這些呼吁主要被視為人工智能巨頭自證清白的一種方式,因為世界各國政府都在尋找監(jiān)管人工智能的正確方式。其他一些人則認為,這是該行業(yè)初創(chuàng)企業(yè)夸大這項技術(shù)的極端重要性以及它們在生態(tài)系統(tǒng)中的作用的一種方式。在媒體、廣告或銀行業(yè),人工智能已經(jīng)開始威脅就業(yè),但其“災(zāi)難性風險”目前更加不確定。(編譯/劉卓)
相關(guān)稿件