光明網評論員:“國慶上網被雷軍罵7天”,只是玩梗狂歡嗎

光明網評論員:“國慶上網,被雷軍整整罵了7天。”連日來,短視頻平臺上出現了大量“雷軍”的發言視頻,涉及堵車、調休、遊戲等熱門話題,不僅言辭犀利還常爆粗口。有網友跑去雷軍社交媒體賬號下就此提出疑問,雷軍回覆以三個表示憤怒的表情。眼下,各種AI克隆雷軍的配音模仿、惡搞視頻仍層出不窮。

從相關視頻來看,“雷軍”本人出鏡,口音似乎也是本人。有的網友不以爲意,認爲這不過是最常見的“惡搞”“玩梗”,還有的網友則半信半疑,更有“數字化生存”經驗欠缺者對此深信不疑。“雷軍AI配音”乍看是一場娛樂狂歡,但潛藏的危險不能不引起我們的警惕。

從彼雷軍到此雷軍,使用“AI配音”就可以實現一鍵直達。近年來,通過AI實現的聲音和畫面深度僞造的技術門檻不斷降低,爲這種“一鍵變聲”“一鍵變臉”大肆氾濫提供了可能。目前,市面上已有大量的AI配音小程序,用戶只需在程序內選擇相應的人物聲音並輸入文字,便可借用他人的聲音發表言論。有的軟件免費向用戶開放部分使用權限,收費版也價格較低。

深度僞造作爲一種技術,是中性的。但是,在深度僞造技術之下,我們可能無法區別真假,過去崇尚的“眼見爲實”受到衝擊,只能信以爲真。而真僞難辨的混沌地帶,也將成爲滋生各種亂象的溫牀。在AI詐騙中,犯罪分子憑藉一段原始語音、照片等就可以編造謠言甚至陷阱,早已是屢見不鮮的套路。

《2024人工智能安全報告》顯示,2023年基於AI的深度僞造欺詐增長了3000%,僅今年上半年,AI詐騙案案值已超過1.85億元。就目前而言,面對深度僞造技術,我們普通人僅有的生存經驗完全無法招架,每個人都很有可能成爲“受害者”。

當製作者還沉浸在自己製作的AI配音視頻大獲流量的時候,殊不知已涉嫌侵權。沒錯,聲音作爲個人特徵的一部分,受到法律明確保護。民法典規定,任何組織或個人未經聲音權人同意,不得擅自使用、公開或侵害其聲音權益。在一些AI配音小程序中,一些內置的名人聲音,多用“你懂的”式暱稱來命名而非真名,可能也是處於規避侵權糾紛的考慮。不過,這也暴露出,這種侵權式“AI配音”屬明知故犯。

當深度僞造嵌入我們的數字生活,該怎麼辦?這並非無病呻吟強說愁。一方面,要用魔法打敗魔法,推動反深僞檢測技術持續更新迭代,以應對層出不窮的深度僞造騙局;另一方面,要加強技術監管,明確生成式人工智能服務合法與非法的邊界,對相關違法行爲進行嚴肅懲處,以“前車之鑑”構築其參照座標。各個社交平臺也應負起相應的治理責任,增強對疑似AI生成內容的甄別,通過加水印或增加提示等手段,提醒觀看者引起注意。

(來源:光明網)