全國人大代表李東生:有必要對AI生成的內容進行強制標識

生成式人工智能技術是一把“雙刃劍”,它給各個領域帶來機遇,但AI深度僞造內容侵權現象愈演愈烈。

全國兩會即將召開,全國人大代表,TCL創始人、董事長李東生今年帶來了關於加強AI深度僞造欺詐管理的建議。

李東生認爲,隨着生成式人工智能技術的發展,深度僞造技術也快速發展。要規範對於這一新興技術的不當利用行爲,有必要要求深度合成服務提供商對人工智能生成的內容進行強制標識,減少惡意濫用,並釐清責任、對違法犯罪行爲追責。

界面新聞記者發現,爲治理AI亂象,深化網絡生態治理,近年來相關部門出臺了多項政策和措施。

例如,2023年1月10日起施行的《互聯網信息服務深度合成管理規定》明確指出,任何組織和個人不得利用深度合成服務製作、複製、發佈、傳播法律、行政法規禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經濟和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動。

“近年來,我國相關立法雖有關注這一議題,但已出臺的規章制度尚不成體系,還不具備可操作的細則和明確的處罰標準。”李東生提到。

對此,李東生建議:一是加快人工智能深度合成內容標識管理規章制度的出臺。

二是明確對人工智能深度合成服務商未履行標識義務的懲罰制度。李東生表示,要完善對深度合成內容服務提供商未按要求進行標識的行爲界定、分類細則,以及相應的處罰標準。

三是加強深度合成內容標識技術標準和發佈的管理。他建議,應出臺深度合成內容標識的技術標準,保證標識的有效性;對相關內容平臺出臺要求,用戶在發佈深度合成的視頻、音頻等內容時,有義務對其進行標識。四是加強國際合作,形成人工智能生成合成內容的有效監管。