數發部年底推人工智慧風險分級框架 引領AI安全發展
數位發展部部長黃彥男指出,未來企業如果不會用生成式AI,很可能會被淘汰,然而生成式AI的風險伴隨應用而升,政府政策藍圖必須引領AI安全發展,因此數發部將推動人工智慧風險分級框架,預計今年底出爐。圖/聯合報系資料照片
數位發展部部長黃彥男指出,未來企業如果不會用生成式AI,很可能會被淘汰,然而生成式AI的風險伴隨應用而升,政府政策藍圖必須引領AI安全發展,因此數發部將推動人工智慧風險分級框架,預計今年底出爐。
黃彥男今天出席GDDA 2024國際AI資安論壇,他於專題演講時指出,生成式AI讓人類的生活與工作發生重大改變,在此浪潮之下,全球政府都在思考人如何與AI合作,但不可諱言,生成式AI帶來諸多好處的同時,風險也伴隨應用而升。
黃彥男點出生成式AI的5大風險及影響面向,分別是虛假訊息、資訊安全、國家安全、內容合規與侵犯智慧財產權;虛假訊息方面,可能導致假消息及惡意言論氾濫,或是操縱輿論等問題,資安方面則有機敏資料外流,以及濫用深僞技術、模型攻擊與防禦等威脅。
國安面向,存在國家機密資料或國民資料外泄、蒐集影響國家安全的資訊、國家立場或政治輿論操弄等風險。
黃彥男表示,有鑑於AI的機會與風險伴隨而生,全球政府陸續擬定AI治理政策與指引,臺灣也由國科會於今年7月端出人工智慧(AI)基本法草案,引導各機關發展AI應用;數發部也將參考國際標準或規範,推動人工智慧風險分級框架,各目的事業主管機關得循前項風險分級框架,訂定主管業務的風險分級規範。
黃彥男會後受訪時表示,風險分級框架會分成好幾級,如高中低等分級方式,會根據風險、怎麼應用,有不同風險要求,預計年底要出爐。
黃彥男也說,推動AI研發與應用過程中,應確保AI應用不會侵害個人資料、生命財產安全,或引發偏差、歧視,並由相關機關提供評估工具,協助各部門避免風險。