21世紀經濟報道 記者張雅婷 實習生高藝 廣州報道近日,美國聯邦貿易委員會(FTC)向美國國會發佈一份報告,指出使用人工智能技術在打擊虛假信息、深度偽造和其他網絡問題上存在風險。報告顯示,人工智能在設計上可能不準確、有偏見與歧視性,並可能造成對商業不當監控的鼓勵。
事實上,對人工智能可能帶來的社會風險和防治已經成為全球共同關註的話題。面對人工智能可能造成的社會風險、法律侵權、道德倫理爭議,各國監管一直走在探索的路上,尋求鼓勵技術創新和防治社會風險之間的平衡。
算法技術的合規重要性近年來在我國多次被強調。繼《個人信息保護法》與《互聯網信息服務算法推薦管理規定》的規制之後,6月22日中央全面深化改革委員會第二十六次會議中再次指出,加強平臺企業沉淀數據監管,規制大數據殺熟和算法歧視。
AI存風險,立法需警惕
此次報告的發佈是出於國會的審查請求。在《2021年綜合撥款法案》中,國會指示FTC審查人工智能是否以及如何“可能被用於識別、刪除或采取任何其他必要的適當行動”,以應對各種特定的“網絡危害”。國會特別關註的在線問題包括在線欺詐、假冒詐騙、虛假評論和賬戶、機器人攻擊、社交媒體操縱、非法毒品銷售和其他非法活動、在線騷擾和網絡跟蹤,以及影響選舉等。
報告建議,國會不要將AI當作解決這些網絡問題的政策方案,並指出采用人工智能可能帶來的額外危害。報告概述瞭與使用人工智能相關的幾個問題:
一是人工智能具有固有的設計缺陷和不準確性。人工智能具有內置的不精確性和不準確性,對“網絡危害”的監測能力受到設計缺陷的顯著限制,例如可能出現不具有代表性的數據集、錯誤的分類、未能識別新現象以及缺乏上下文和意義等;
二是人工智能攜帶偏見和歧視。人工智能會反映開發人員的偏見,從而導致錯誤的結果和潛在的非法風險。報告示例包括人工智能導致對受保護人群的歧視,或可能通過過度限制內容而損害表達自由;
三是人工智能可能鼓勵商業對人們的不當監控。由於技術開發需要大量數據,人工智能可能會鼓勵和支持商業監控和數據提取的行為。此外,提高人工智能的準確性和性能需求可能會導致更具侵入性的監視形式。
報告發現,鑒於主要技術平臺和其他平臺已使用人工智能來解決網絡危害,立法者更應考慮制定法律框架,以確保人工智能不會造成額外傷害。政府、平臺等必須非常謹慎地強制使用或過度依賴這些工具,即使是為瞭減少危害的重要目的。國會不應推出那些要求公司使用人工智能來監測有害內容的法律,且迫使平臺快速刪除某些有害內容的法律會因為損害言論自由而無法通過《憲法第一修正案》的審查。
報告認為,對於任何涉及人工智能使用與處理網絡危害問題的法律,都有三個關鍵的考慮因素——定義、覆蓋范圍和線下影響。首先,人工智能、算法、網絡危害等術語的定義因其模糊性和廣度存在爭議。其次,法律涵蓋范圍存在問題,例如覆蓋技術的哪些部分;如果僅限於社交媒體公司,是否應根據規模區分這類公司與如何衡量規模;法律應涵蓋為不同代際的人提供網絡服務的規定。最後,網絡危害將對線下也產生影響,立法者要避免孤立看待。
報告提出,立法重點應該優先考慮創建、使用人工智能解決網絡危害的平臺的透明度和問責制,包括公開披露信息,即使用人工智能的方式與數據;研究人員可獲取額外信息;保護舉報人、審計員、研究人員和記者;公開審計和評估的要求;推出標記違規內容、投訴內容、通知刪除、糾正刪除的系統。報告敦促國會關註增強數據訪問所帶來的隱私和安全風險。
AI監管,全球在路上
近年來,人工智能商業化風起雲湧,技術可能造成的社會風險及防治方式已是全球關註的重點。目前,人工智能可能出現算法黑箱、安全漏洞、算法歧視、隱私侵犯、信任危機等多重問題。面對人工智能可能造成的社會風險、法律侵權、道德倫理爭議,各國一直在尋求鼓勵技術創新和防治社會風險之間的平衡。
歐洲走在人工智能法律監管的前列。2015年,歐盟委員會決定下設負責人工智能法律與政策研究的工作小組。2017年,歐盟議會發佈《歐盟機器人民事法律規則》。2018年12月,歐盟委員會通過《人工智能開發和適用倫理指南草案》。2019年歐盟委員會發佈《可信賴人工智能倫理準則》,準則包括七項要素:人的能動性和監督、技術穩健性和安全性、隱私和數據管理、透明度、多樣性和非歧視性以及公平性、社會及環境福祉、問責制。2020年2月,歐盟委員會發佈《人工智能白皮書——歐洲追求卓越和信任的策略》,希望建立可信任的人工智能生態系統。2021年4月,歐盟委員會發佈立法提案《歐洲議會和理事會關於制定人工智能統一規則(《人工智能法》)和修正某些歐盟立法的條例》,是目前在該方面涉及范圍最廣泛的條例之一,正在通過評論期和重新修訂迅速推進。該提案規定瞭企業和政府應如何使用人工智能技術,將對“高風險”領域的人工智能使用進行限制。根據該提案要求,歐盟將有可能對違規最嚴重的公司處以相當於其全球年銷售額6%的罰款。
在美國,立法者提出瞭追求透明度、問責性和“可解釋性”的人工智能監管法案,強調監管靈活性,在發佈多份發展規劃文件之外,也關註技術監管。2018年6月首次提出、2019年7月再次提出的《自動程序披露和問責法》要求FTC制定法規,強制數字平臺公開披露其使用“網絡復制人們行為的自動化軟件程序或過程”的情況,禁止政治候選人等使用自動程序來分享或傳播任何針對政治選舉的信息。2019年,參議院提出《算法問責法》,賦予FTC執行和監管的權力,要求企業研究並修復存在缺陷的、會導致人們產生不準確、不公平、有偏見或歧視性決策的算法。該法案是美國國會第一次立法嘗試全面監管人工智能系統。2020年1月,美國聯邦政府發佈《人工智能應用的監管指南》,這是美國發佈的首個人工智能監管指南。2021年10月,白宮科技政策辦公室 (OSTP) 宣佈瞭一項制定《人工智能權利法案》(自動化社會的權利法案)的計劃,試圖改善社會隱私泄露、算法透明度不足、生物識別技術的濫用等問題。
在我國,人工智能的風險防控也提上日程。2017年7月,國務院公佈瞭《新一代人工智能發展規劃》,這是我國發展人工智能的遠景規劃。中國信息通信研究院發佈的《人工智能安全白皮書(2018年)》將人工智能安全風險劃分為六大類:網絡安全風險、數據安全風險、算法安全風險、信息安全風險、社會安全風險與國傢安全風險。國傢新一代人工智能治理專業委員會於2019年發佈《新一代人工智能治理原則——發展負責任的人工智能》,強調人工智能發展應遵循和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理八條原則。2021年9月發佈的《新一代人工智能倫理規范》強調,將倫理道德融入人工智能全生命周期。
在與人工智能息息相關的算法技術方面,我國出臺的多份法律法規作出嚴格監管。2021年8月,我國發佈的《個人信息保護法》規定不得實施“大數據殺熟”,個性化推薦應同時提供不針對其個人特征的選項,或便捷的拒絕方式等。2021年12月,《互聯網信息服務算法推薦管理規定》發佈,針對在我國境內應用算法推薦技術提供互聯網服務所應當遵循的合規要求作出明確規定,包括保證用戶對算法的知情權和選擇權,建立完善的人工幹預和用戶自主選擇機制,不得利用算法實施影響網絡輿論、規避監督管理以及壟斷和不正當競爭行為等。
2022年4月,中央網信辦牽頭開展“清朗·2022年算法綜合治理”專項行動,排查整改互聯網企業平臺算法安全問題,評估算法安全能力,重點檢查具有較強輿論屬性或社會動員能力的大型網站、平臺及產品,督促企業利用算法加大正能量傳播、處置違法和不良信息、整治算法濫用亂象、積極開展算法備案,推動算法綜合治理工作的常態化和規范化。6月22日,中央全面深化改革委員會第二十六次會議中再次指出,加強平臺企業沉淀數據監管,規制大數據殺熟和算法歧視。
人工智能是未來技術發展的前景,會帶來產業變革,但也存在著全新的社會風險。通過法律進行監管和防范,是各國必須要探討的問題。正如此次報告的起草人、FTC消費局局長塞繆爾·萊文 (Samuel Levine) 所說:“新技術是把雙刃劍,打擊有害的網絡內容需要廣泛的社會努力,而不是過於樂觀地相信新技術可以幫助我們擺脫這些問題。”