2022年3月1日,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、市場監(jiān)管總局聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》(下文簡稱《規(guī)定》)正式施行。在大數(shù)據(jù)經(jīng)濟時代,算法是個人信息處理者收集和處理數(shù)據(jù)、推送信息、調(diào)配資源的核心力量。算法一旦失范,將給國家利益、社會公共利益和公民合法權(quán)益帶來嚴重威脅。因此,《規(guī)定》的施行具有鮮明的時代意義和現(xiàn)實需求。
算法是計算機的核心運行邏輯,是一套基于設計目的的數(shù)據(jù)處理指令的總和,在底層上體現(xiàn)出專業(yè)科技的特點。算法也是一門賦能技術(shù),應用場景為賦能領(lǐng)域,當算法應用到具體的商業(yè)模式當中,就會產(chǎn)生應用型風險。算法關(guān)系就是這樣一種“方式”與“領(lǐng)域”的疊加關(guān)系或結(jié)合關(guān)系。因此,算法規(guī)范不能不談 “方式”,算法的設計、測試、評估屬于科技活動,“算法黑箱”、“算法霸權(quán)”部分是因科技活動本身的不規(guī)范所致;算法規(guī)范也不能只談“方式”,因為正是算法層出不窮的應用場景,使得算法現(xiàn)實地影響我們的權(quán)益,影響人的自由發(fā)展?!兑?guī)定》充分把握了算法的內(nèi)生性風險和應用型風險,有針對性地設計風險防范規(guī)則。
第一,算法內(nèi)生性風險的控制重點在算法的設計和運行階段。算法的設計、測試、評估非專業(yè)人士不能為之,這種“排他性”表明算法活動是一項專門技術(shù)。算法黑箱、算法歧視等痼疾的產(chǎn)生,部分也源于科技活動本身的復雜性。因此,對科技活動的規(guī)范,需要從科技風險防范的角度設計專門規(guī)則。《規(guī)定》鼓勵使用算法傳播正能量、抵制違法和不良信息,不得設置誘導用戶沉迷、過度消費等有違倫理道德的算法模型,推動算法向上向善。表明了作為科技活動的算法研發(fā)不能僅有工具理性,必須具有價值理性。
在具體規(guī)則層面,《規(guī)定》也側(cè)重于從技術(shù)角度,直接規(guī)范算法設計和運行。例如,第9條第1款要求算法推薦服務提供者建立健全用于識別違法和不良信息的特征庫,完善入庫標準、規(guī)則和程序;第10條要求算法推薦服務提供者加強用戶模型和用戶標簽管理;第12條鼓勵算法推薦服務提供者綜合運用內(nèi)容去重、打散干預等策略,并優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性等等。
特別值得關(guān)注的是,《規(guī)定》第24條規(guī)定算法備案制度,要求算法推薦服務提供者提供算法類型、算法自評估報告、擬公示內(nèi)容等信息。科技活動風險控制首推風險評估與實驗數(shù)據(jù)記錄。如果算法活動缺乏風險評估,則使得風險無法從源頭控制;如果算法設計和檢驗缺乏記錄,則監(jiān)管機構(gòu)無法進行有效地評估、追溯和驗證復雜算法。備案制度一定意義上倒逼算法推薦服務提供者積極進行風險評估和全流程記錄,既能督促運營者在整個算法活動階段考慮算法合規(guī)問題,也有助于幫助執(zhí)法機關(guān)監(jiān)督算法活動。
第二,算法應用型風險的治理覆蓋了算法運行的全生命周期。算法既是科學技術(shù),也是賦能手段,其除了具備科技固有的風險之外,也因在商業(yè)和公共事業(yè)領(lǐng)域的嵌入式應用,對源于工業(yè)時代立法模式和治理模式不斷沖擊,引發(fā)了諸多治理痛點。在應用環(huán)節(jié),我們也要貫徹程序性控制。但算法應用有著不同于算法研發(fā)的特殊性:算法應用直接作用于算法相對人。算法應用將影響算法相對人的合法權(quán)益——算法針對算法相對人的訴求做出決定。為了解決應用型風險,《規(guī)定》針對未成年人、老年人、勞動者和大數(shù)據(jù)殺熟等場景,分別配置相應的行為規(guī)則(第19條至第21條)。為了實現(xiàn)自下而上的算法治理,《規(guī)定》還通過權(quán)利路徑,賦予個人對抗算法決策的權(quán)利。
《規(guī)定》第17條第1款規(guī)定:“算法推薦服務提供者應當向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關(guān)閉算法推薦服務的選項。用戶選擇關(guān)閉算法推薦服務的,算法推薦服務提供者應當立即停止提供相關(guān)服務。”相較于《個人信息保護法》第24條第2款的規(guī)定,本條進一步明確規(guī)定了算法應用拒絕權(quán)。
此外,第17條第2款規(guī)定:“算法推薦服務提供者應當向用戶提供選擇或者刪除用于算法推薦服務的針對其個人特征的用戶標簽的功能?!痹摋l規(guī)定為我國首創(chuàng),能夠更全面地保護算法相對人的利益。算法相對人可能并不是要求算法使用人停止推薦服務,而是禁止推定特定類型的服務。通過賦予算法相對人刪除標簽的權(quán)利,能夠更全面的滿足用戶的要求。
同時,《規(guī)定》第17條第3款還規(guī)定:“算法推薦服務提供者應用算法對用戶權(quán)益造成重大影響的,應當依法予以說明并承擔相應責任。”比如,在動態(tài)定價當中,如果推薦給用戶的價格偏高,可能構(gòu)成對用戶權(quán)益的重大影響。用戶可以要求算法推薦服務提供者給予說明。如果構(gòu)成侵犯民事權(quán)益的,算法推薦服務提供者應根據(jù)法律規(guī)定承擔相應責任。
算法風險的全流程治理,在“風險-規(guī)制”框架下尋找新的平衡點和組合方式。算法在本質(zhì)上是處理數(shù)據(jù)的代碼,是一項應用科學技術(shù)。但技術(shù)并非中立,尤其是當算法處理的不是“物”、而是“個人信息”時,算法活動就兼具社會活動屬性,內(nèi)涵倫理和社會風險。因此,算法規(guī)范難題部分來源于科技的專業(yè)性和工具性,部分來源于應用場景當中的價值復雜性?!兑?guī)定》針對科技風險與應用風險設計規(guī)則,在“風險-規(guī)制”框架下創(chuàng)設了算法規(guī)范的中國方案。
(作者:林洹民,浙江大學光華法學院講師,工業(yè)與信息化法治研究院研究員)
相關(guān)稿件