臉書演算法恐侵隱私 巴西決禁取用貼文
近日巴西禁止Meta用臉書貼文訓練語言模型,引發各方討論生成式AI被錯誤訓練的風險。(中央社)
各國都擔心臉書將用戶貼文拿來訓練演算法,近月紛紛採取行動!除了巴西以外,幾周前英國與歐洲也禁止Meta將用戶的臉書貼文內容拿來餵養AI模型。臉書對於相關決定感到很失望,並認爲演算法的操作是符合當地法律的。但由於對新科技發展的疑慮,加上各國法治尚未齊全,對於演算法擷取個資的事情都相當敏感。
不能用貼文喂演算法
根據《英國廣播公司》報導,巴西國家個資保護局(ANPD)3日表示,將在國內暫緩實施臉書的隱私政策,因其規定允許臉書使用用戶的貼文作爲訓練大型語言模型(LLM)。ANPD認爲,臉書相關規定對用戶的基本權利有嚴重侵害。臉書母公司Meta則迴應說,這對科技創新是嚴重受挫,恐讓巴西民衆更難享受AI帶來的便利。
臉書在巴西有1.02億用戶,IG則有1.13億用戶,是非常大的市場,因此相關規定對臉書來說損失慘重,ANPD要求臉書在5個工作天內調整隱私政策,否則每天要面臨5萬雷亞爾(巴西貨幣)的罰鍰。
憂AI有價值偏差
由於LLM會擷取大量資料進行演算法訓練,近日許多國家都擔心這樣的模式恐侵害用戶隱私,英國與歐洲近來也針對臉書相關隱私政策有所反彈。
原本在歐洲,Meta可以蒐集18歲以上用戶的貼文、照片、動圖、回覆與短影音,但不能蒐集私訊,不過愛爾蘭個資保護委員會代表歐盟對此提出質疑,也讓臉書無法使用演算法在歐洲蒐集資訊。
科技媒體《The Verge》提到,其實Meta的隱私政策已經在美國適用,但由於缺乏用戶個資保護機制而引發不少討論。國際人權觀察組織也在6月警告,提供演算訓練的開源資料集如LAION-5B內部含有兒童圖案,恐遭拿去深僞影片使用,且用被污染過的資料訓練演算法,會導致生成式AI的迴應出現價值偏差,因此各國都相當關注。
【更多精采內容,詳見】