??人工智能發(fā)展帶來新安全風險挑戰(zhàn),利用AI技術造假、詐騙等問題浮現(xiàn)
??拉緊AI法律“韁繩” 期待完善監(jiān)管體系
??閱讀提示
??人工智能技術在不斷更新迭代,對應用領域的新風險需更重視。受訪專家表示,人工智能的健康發(fā)展離不開技術和法律的合力,需要針對不同風險等級采取不同的監(jiān)管措施。
??用AI工具生成文本、合成假視頻,編造不實信息以引流;利用AI技術“換臉”“變聲”,實施電信詐騙……加速發(fā)展的人工智能技術在改變?nèi)祟惿鐣⒏淖兪澜绲耐瑫r,帶來的負面影響和潛在風險逐漸顯現(xiàn)出來。
??在剛剛過去的全國兩會上,不少代表委員關注到人工智能的安全與合規(guī)問題,從技術、法律等角度就促進人工智能健康發(fā)展發(fā)出了建議和呼吁。
??在人工智能加速發(fā)展的當下,如何拉緊法律“韁繩”成為社會關注問題。受訪專家指出,人工智能的健康發(fā)展離不開技術和法律的合力,呼吁建立健全完整的人工智能技術法律體系,針對發(fā)展中不同風險等級采取不同的監(jiān)管措施。
??技術應用門檻降低帶來新風險
??去年以來,已有多地警方提醒公眾防范不法分子利用AI技術“換臉”“換聲”進行的新型電信詐騙。在內(nèi)蒙古包頭市公安局披露的一起案件中,詐騙團伙在AI技術的“掩護”下,佯裝為一名企業(yè)家的“好友”,撥打其微信視頻,稱需要用其公司賬戶“走一下賬”。
??在視頻中確認了“好友”面孔和聲音的該企業(yè)家,將款項匯了過去。在撥打好友電話后,才發(fā)現(xiàn)視頻里的“好友”系偽裝。
??人工智能已經(jīng)從概念加速應用落地,算法歧視、信息繭房等法律甚至倫理等問題隨之而來。全國工商聯(lián)副主席、奇安信科技集團董事長齊向東也指出,生成式人工智能技術可以快速生成釣魚郵件、編寫惡意軟件與代碼,AI欺詐事件頻繁發(fā)生。
??360集團創(chuàng)始人周鴻祎將人工智能技術引發(fā)的安全風險分為技術安全、內(nèi)容安全和人類安全。其中,內(nèi)容安全是對大模型的控制、濫用、誤用和惡意應用等。
??AI為何能給不法分子可乘之機?北京科技大學自動化學院教授、北京人工智能學會理事曾慧在接受記者采訪時指出,AI正深度“潛入”人們的工作和生活,由于算法是開源的,制作AI工具的技術門檻降低了,“相較以前,獲取和使用AI工具也變得更加簡單了”。
??記者搜索發(fā)現(xiàn),在一些平臺,輸入圖片就可以輕松“換臉”,無須花費太多也可以自行訓練和制定聲音,男聲甚至可以變?yōu)榕?。商家稱,遠程安裝10分鐘即可直接點開使用。
??“就目前來看,AI生成的‘真實’并非毫無破綻。一些高度‘偽裝’的內(nèi)容對設備和技術則有更高要求?!痹壑赋?。
??多位受訪者表示,人工智能還在不斷更新迭代,對應用領域的新風險需更重視。
??AI應用有法可依但并不完善
??“按照相關規(guī)劃,我們還處于建立人工智能法律法規(guī)體系的初步階段,應該說,AI的應用并非無法可依,但還遠不夠完善?!北本┲玖芈蓭熓聞账匣锶酥x陽律師在接受記者采訪時指出。
??2017年,國務院印發(fā)《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《規(guī)劃》),其中提出,“在大力發(fā)展人工智能的同時,必須高度重視可能帶來的安全風險挑戰(zhàn),加強前瞻預防與約束引導,最大限度降低風險”。《規(guī)劃》提出,到2030年建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。
??推動人工智能健康發(fā)展和規(guī)范應用的政策陸續(xù)鋪開。全國兩會前,《生成式人工智能服務安全基本要求》發(fā)布,從語料安全、模型安全等多個維度規(guī)定了生成式人工智能服務在安全方面的基本要求?!渡墒饺斯ぶ悄芊展芾頃盒修k法》則在2023年8月15日起施行,其中提到,提供者應當依法承擔網(wǎng)絡信息內(nèi)容生產(chǎn)者責任,履行網(wǎng)絡信息安全義務。
??謝陽介紹,根據(jù)《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》,網(wǎng)絡信息內(nèi)容生產(chǎn)者應當遵守法律法規(guī),“其責任和義務散見于網(wǎng)絡安全法、數(shù)據(jù)安全法、消費者權益保護法、個人信息保護法、侵權責任法、未成年人保護法等法律法規(guī)中。”
??金杜律師事務所高級合伙人張毅律師指出,目前已出臺的算法管理規(guī)定仍有不足,例如,未對服務“提供者”等概念進行明確劃分;尚未設立統(tǒng)一的算法監(jiān)管機構,對綜合型算法監(jiān)管易產(chǎn)生監(jiān)管競合,對新型算法監(jiān)管易出現(xiàn)監(jiān)管真空;生成式人工智能技術迭代快、應用多樣,也帶來了更多新挑戰(zhàn)。
??多位受訪專家表示,算法侵害還面臨著“維權難”的困境,存在“取證難”“舉證難”“認定難”“追責難”等問題?!霸趯嵺`中,將侵害結(jié)果追溯到具體的行為主體也還面臨著障礙?!敝x陽指出。
??AI健康發(fā)展離不開技術與法律合力
??人工智能是引領未來的戰(zhàn)略性技術,如何最大限度發(fā)揮出向上向善的力量,對人們生活和社會發(fā)展很重要。受訪專家認為,在人工智能的健康發(fā)展過程中,離不開技術和法律的合力。
??“應借助AI能力,加速網(wǎng)絡安全技術創(chuàng)新、安全防護體系創(chuàng)新?!饼R向東認為,應鼓勵各個行業(yè)的龍頭公司和網(wǎng)絡安全公司合作,把AI安全技術融入數(shù)字化場景當中,進行有效的安全防護。
??周鴻祎建議,制定保障通用大模型安全的標準體系,推動通用大模型開展安全評測、接入安全服務,降低通用大模型安全風險。
??張毅認為,應盡快推進人工智能法的制定和出臺,以人工智能法及配套的監(jiān)管工具為核心,形成完整的人工智能技術法律體系。同時,參考其他成熟的監(jiān)管思路,將人工智能和算法技術按風險等級進行劃分,并針對不同等級采取不同的監(jiān)管措施。
??“任何規(guī)范的最終落腳點是能追責,追責的前提之一是要留痕?!敝x陽認為,應進一步完善制度供給,可以通過法律法規(guī)來施行強制的行業(yè)標準,以做到留痕,事前預防、事中規(guī)制、事后救濟等問題可迎刃而解?!翱梢圆捎迷圏c模式,提前試點相關的監(jiān)管措施,待時機成熟時再予以推廣適用?!彼ㄗh。
??“應拓展算法侵害行為的維權路徑與責任模式,增強用戶的維權力量?!睆堃憬ㄗh,在算法侵權的訴訟中采取“過錯推定”歸責原則,實行“舉證責任倒置”。用戶僅承擔受到算法損害的責任,由算法服務商對算法和損害之間無因果關系以及無過錯承擔舉證責任,“應增強源頭治理,形成責任閉環(huán)”。(記者 趙琛 李潤釗 楊召奎)
相關稿件