重視防範AI造假風險

原標題:重視防範AI造假風險

近日,某知名醫學專家在網絡視頻中“被帶貨”,實則爲AI(人工智能)合成視頻,引發公衆對AI造假風險的擔憂。

生成式人工智能是當前國內外最熱門的AI技術形態,因其強大的內容生產功能和強交互性而受到廣大用戶歡迎。作爲一種顛覆性技術的新生事物,生成式人工智能在給經濟社會發展帶來巨大利好和無限可能的同時,也在法律規範、倫理道德、社會安全、公共治理等方面帶來衝擊。一是由生成式人工智能技術本身的侷限性和特點引發的內生性風險。大模型使用的數據存在錯誤、不完備性,且蘊含人類本身的價值觀念,這就可能導致輸出的內容存在錯誤、偏見、歧視。而且,生成式人工智能訓練依賴於大規模數據,容易造成對個人數據和公共數據的過度搜集,進而引發侵權等問題。二是一些主體的非法和惡意使用引發的外生性風險。生成式人工智能可以成爲製造、傳播虛假信息的工具,利用AI深度僞造會成爲詐騙活動的“新武器”。在大國博弈的背景下,生成式人工智能還可能被用作網絡攻擊的工具。

重視和防範這些風險,必須加強生成式人工智能安全監管,築牢安全底線,推動智能向善,爲防範化解相關風險隱患、持續推動產業發展與技術進步提供保障。

建立安全監管制度,進行全鏈條監管。在生成式人工智能的準備階段,建立數據蒐集和使用的規範機制,避免數據安全風險。在訓練階段,建立算法監管標準,將法律規範的要求深度嵌入生成式人工智能的算法模型,消除算法偏見。在使用階段,規範AI生成內容標識,研究完善生成式人工智能領域知識產權保護相關法律法規,制定對生成式人工智能濫用和非法使用的精準化、常態化監管機制,避免侵權和擾亂社會秩序。

促進多元主體共同參與,形成監管合力。政府部門加強頂層設計,前瞻研判生成式人工智能安全風險樣態,主動識變應變求變,完善制度保障,建立制度監管體系。夯實生成式人工智能研發企業主體責任,增強企業的社會責任感,加強行業自律,制定行業標準,強化數據管理和保護,加強產品安全測試,提供易於理解的產品使用指南和隱私政策,制定應對生成式人工智能產品安全事件的應急預案和風險管理體制。增強生成式人工智能研發人員的法律和安全意識,開展AI相關法律法規培訓和安全意識教育,制定研發人員行爲準則和指南。提高公衆AI素養,加強公衆智能安全風險意識教育,宣傳和普及AI相關法律法規,鼓勵公衆參與生成式人工智能監管,建立投訴和舉報機制,及時發現和處理生成式人工智能安全風險問題。

強化技術賦能,提高安全監管水平。當前我國生成式人工智能領域研發投入和大模型數量不斷增多,但大模型質量仍然有待提高,因此需要加大研發投入,搶佔技術高地,確保生成式人工智能系統的安全性和可靠性。AI也可以作爲安全監管的有效技術手段,如利用生成式人工智能進行安全風險預警和監測,進行自動化合規檢查,識別和過濾虛假信息,模擬安全風險事件,幫助制定應急預案,分析政策的影響和效果,爲政策制定者提供決策支持。

加強國際合作,推動形成國際安全監管共識。生成式人工智能治理已經成爲一項全球性科技議題,要加強國際合作,建立多邊對話平臺研究交流生成式人工智能安全監管問題,促進各國安全人才交流和合作,積極吸收各國關於AI安全監管經驗,參與生成式人工智能治理與監管國際規則制定,以人類命運共同體理念推動形成生成式人工智能安全監管共識,共同應對它帶來的全球性安全挑戰,推動相關技術爲全人類發展服務。(劉冠嬋 王閣)

來源:經濟日報