一財社論:生成式人工智能發展要守牢安全底線
黨的二十屆三中全會審議通過的《中共中央關於進一步全面深化改革 推進中國式現代化的決定》(下稱《決定》)對健全網絡綜合治理體系作出系統部署,其中提出,要完善生成式人工智能發展和管理機制。
日前,中央網信辦主任莊榮文在接受新華社記者採訪時強調,(在生成式人工智能領域)要守牢安全底線,防範濫用風險。
截至目前,我國完成備案並上線、能爲公衆提供服務的生成式人工智能服務大模型已達190多個,註冊用戶超過6億。下一步,將繼續促進生成式人工智能技術在工業、農業及教育、醫療、衛生等領域落地應用,激活人工智能技術賦能實體經濟發展的作用,合力推動人工智能在傳統行業領域應用中取得更大突破。
生成式人工智能是一把雙刃劍,在給許多領域帶來重大變革的同時,也產生或孕育着國家競爭力風險、技術安全風險、網絡安全風險、經濟社會風險等各種風險。這是強調要完善生成式人工智能發展和管理機制的出發點所在。
生成式人工智能是世界性賽道,各國都非常重視,有一些經驗可以借鑑,但核心領域的創新只能依靠自己的努力。
核心領域有硬件和軟件兩個方面。對前者來說,要着力促進自主可控算力芯片產業發展,這是生成式人工智能發展的基礎性要素,也是當前和今後一段時間的“卡脖子”所在。
去年8月工業和信息化部等四部門發佈的《新產業標準化領航工程實施方案(2023—2035年)》指出,要研製新型存儲、處理器等高端芯片標準,開展人工智能芯片、車用芯片、消費電子用芯片等應用標準研究。這將對我國自主可控算力芯片發展起到引導和激勵作用。
當前,我國能爲公衆提供服務的生成式人工智能服務大模型已達190多個,但在產出成果和應用效果上還與先進國家存在一定差距,加速自主大模型研發和應用仍是各方面臨的緊迫任務。“自主”是重點,發揮社會各方面的合力作用是路徑。
在生成式人工智能迅猛發展的同時,防範濫用風險也成爲公衆關注的重要方面。正如上述採訪中莊榮文強調的那樣,今後要指導相關平臺企業合法合規向網民提供優質服務,防範技術濫用帶來的個人數據泄露、虛假信息生成、知識產權侵權等風險。
另外需要強調的是,需要防範的風險還包括涉及用戶生物識別信息、健康信息等個人數據泄露而引發的諸多問題。這涉及生成式人工智能應用的倫理道德問題,技術發展和應用不能違背倫理道德是一個基本要求。
爲此,本月1日正式生效的歐盟《人工智能法案》明確,所有被認爲對人們的安全、生計和權利構成明顯威脅的人工智能系統都將被禁止。
我國去年8月施行的《生成式人工智能服務管理暫行辦法》(下稱《暫行辦法》)明確規定,有關生成式人工智能的內容要合法合規、禁止算法歧視、不得生成虛假信息、不得侵犯他人合法權益等相關內容。這對生成式人工智能可能帶來的倫理道德風險具有重要的警示作用。
完善生成式人工智能發展和管理機制還需要加強法規建設,並進而形成協同共治的局面。
在加強法規建設方面,《暫行辦法》的制定施行在全球範圍內具有領先意義,但這僅僅是一部行政法規,還有較大的提升空間。
在今年的全國兩會期間,有多名人大代表提出了關於制定人工智能法的議案,建議對人工智能發展和崛起所導致的各類法律問題開展立法研究,適時制定出臺人工智能法。因爲這些代表認爲,《暫行辦法》仍不能較全面地涵蓋人工智能所引發的各類問題,不足以做好與現行法律的銜接工作。
在協同共治方面,要進一步推動人工智能的安全和應用治理,政府監管、行業自治、企業自律、社會監督協調一致。
總而言之,近年來,我國生成式人工智能快速發展,新技術不斷突破,新業態持續涌現,爲經濟社會發展注入了強勁動能,但也面臨着許多亟待解決的問題,包括強化自主可控、引導和規範應用落地、防範濫用風險、實現協同共治等。這些問題的解決將爲推動生成式人工智能產業發展、技術進步與安全保障提供堅實基礎。