21世紀經濟報道 記者 鄭雪 北京報道
報告全文和下載鏈接:《中國AI治理的獨立思考——生成式人工智能發展與監管白皮書》
新一輪人工智能飛速發展,如何平衡發展與安全成為此次發展過程中的一道必答題。
8月1日,南財合規科技研究院與觀韜中茂律師事務所推出《中國AI治理的獨立思考——生成式人工智能發展與監管白皮書》(以下簡稱白皮書),通過分析生成式AI的發展現狀、政策導向、實操中面臨的風險,以及各國的監管路徑,以期為未來的AI治理提供有益思路。
生成式AI技術,是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。生成式AI本質在于“創造未知世界”。
大模型是本輪生成式AI競賽的殺手锏。各個科技公司加碼大模型,上演“百模大戰”。白皮書梳理了來自互聯網公司、AI公司、科研院所、教育行業、車企等發布的超過30個大模型。此外,白皮書還梳理了當前接入類ChatGPT技術應用,將其整理為辦公軟件、社交文娛、商業營銷、家庭助理、智慧醫療六大類,并具體細分為16個應用方向。
白皮書指出,生成式AI當前主要面臨四大類風險:一是知識產權侵權風險,需要關注著作權侵權、商業秘密侵犯、不正當競爭和反壟斷風險;二是算法風險,面臨算法黑箱、算法歧視、算法決策、算法失真風險;三是數據安全與個人信息保護風險,需要考慮個人信息保護、數據跨境風險、數據安全風險等問題;四是倫理道德風險,需要關注生成式AI發展過程中帶來的偏見、刻板印象、歧視等問題。
值得關注的是,白皮書梳理了歐盟、美國的人工智能監管框架,以期為中國人工智能治理思路提供參考。
白皮書指出,美國其未在聯邦或者州層面制定相關的法律文件來規制生成式AI的應用以及其可能帶來的風險,而是采取以美國國家標準與技術研究院的《人工智能風險管理框架》(以下簡稱框架)為主引導實踐的治理框架,框架概述了可信的人工智能系統的特征,即可解釋性、透明度和問責制。美國關于生成式AI應用的治理框架反映了其對于創新技術的一貫態度,即鼓勵科技發展,著力保持自身在全球科技創新中的領導地位。
歐盟略顯保守,其采用了以人工智能法案為主的風險分級監管治理框架,將人工智能技術可能對人的健康和安全或基本權利造成的風險程度分為四個級別:不可接受的風險、高風險、有限風險和最小風險,并分別采取不同的限制措施。
具體到中國來看,白皮書指出,“發展”正逐漸成為中國AI治理的第一視角。中國在7月發布了《生成式人工智能服務管理暫行辦法》,提及“堅持目標導向和問題導向”,單設了“技術發展與治理”章節,同時也新增了不少有力措施來鼓勵生成式AI技術發展,如探索優化應用場景、加強基礎技術自主創新、推動公共訓練數據資源平臺建設、豁免責任等。
針對生成式AI商業化中出現的一系列風險,開發者又該如何應對?白皮書亦給出了答案。
白皮書提出了以風險控制為核心目標導向的AI風險治理框架。風險治理框架的核心為風險識別-風險度量-應對策略-控制措施。
風險識別:關注知識產權、算法、數據安全以及個人信息等方面帶來的風險。同時提醒關注未知風險。
風險度量:典型的風險衡量方法需要開發者將測量或估計的影響和影響可能性相乘或定性組合為風險評分(風險≈影響x可能性)。試圖完全消除負面風險在實踐中可能適得其反,因為并非所有事件和風險都可以消除。
應對策略:開發者針對已識別的生成式AI商業化應用風險的應對治理模塊,目前包括以下模塊:協議安排、內部政策、技術性限制、數據治理、動態測試及評估、透明度實踐等。
控制措施:依據風險應對策略,確定的具體風險控制節點,需要開發者內部具體落實的措施。
此外,生成式AI應用風險事件庫也是一個值得借鑒的行業實踐。AI風險事件數據庫通過整理和分析生成式AI商業化應用的開發和部署在現實商業領域中造成的或可能造成不良后果或者損害的情況,形成相應數據庫。