假嬰兒真恐怖 加薩戰火深僞影像助長AI誤導疑慮
以哈開戰使加薩走廊房屋毀損、死傷慘重。但近期卻傳出許多當地被炸燬的房屋和街道照片中,有些畫面是利用AI深僞技術合成。(圖/路透社)
以色列與哈瑪斯開戰以來,加薩走廊被炸燬的房屋和街道照片中,有些畫面極度恐怖,例如浴血棄嬰,這些影像是利用AI深僞技術合成,在網路上有數以百萬計的瀏覽量。
美聯社報導,如果仔細觀察會發現一些破綻,例如手指彎得很怪,或眼睛閃爍着不自然光芒,這些都是數位欺騙的跡象。
然而,製造這些影像來激發的怒火,卻是非常真實的情緒。
以色列與巴勒斯坦武裝團體「哈瑪斯」(Hamas)戰爭相關照片生動且強烈地凸顯人工智慧(AI)作爲宣傳工具的潛力,被用於創造逼真的屠殺影像。自上個月以哈戰爭爆發以來,社羣媒體上流傳的數位修圖被用來製造關於傷亡究責的不實說法,或欺騙民衆有暴行但實際上從未發生。
雖然網路上流傳的不實說法大多不需要動用到AI,而是來自更傳統的來源,但科技進步也讓頻率變高,而且幾乎沒有監管機制。這使得AI成爲另類武器的潛力變得顯而易見,也讓人得以一窺未來衝突、選舉和其他重大事件中將會發生的情況。
總部設於舊金山和巴黎的科技公司CREOpoint利用AI評估網路說法的正確性,執行長戈登斯坦(Jean-Claude Goldenstein)表示:「情況會惡化,變得更糟,之後纔會好轉。」這家公司建立一個資料庫,儲存有關加薩走廊(Gaza Strip)最瘋傳的「深僞」(deepfake)技術生成內容,「有了生成式AI,照片、影片和音檔將有前所未見的『升級』」。
在某些案例中,其他衝突或災難的照片被重新利用,冒充成新照片。另有生成式AI程式被用來「無中生有」創造新的影像,例如有個嬰兒在轟炸殘骸中哭泣的影像在衝突初期迅速流傳。
其他AI生成影像的例子包括據稱是以色列飛彈襲擊的影片,或戰車駛過被摧毀的社區、家屬在瓦礫堆中搜尋生還者的影片。
在許多案例中,假照片目的似乎是要激起強烈的情緒反應。在血腥衝突初期,以色列和哈瑪斯的支持陣營都指稱對方傷害孩童和嬰兒,哭泣嬰兒的深僞影像隨即被當成「證據」。
追蹤戰爭假消息的非營利組織「對抗網路仇恨中心」(Center for Countering Digital Hate)執行長阿邁德(Imran Ahmed)表示,製作這類影像的宣傳人員善於瞄準人們心中最深層的衝動和焦慮。
影像愈令人厭惡,網路用戶就愈有可能記住並且分享,從而在不知不覺中成爲假消息傳播的幫兇。阿邁德說:「假消息目的是讓你參與其中。」
俄羅斯去年入侵烏克蘭後,網路上也開始流傳類似的AI生成欺騙性內容。一段經過修改的影片似乎顯示烏克蘭總統澤倫斯基(Volodymyr Zelenskyy)下令烏克蘭人投降。這類說法直到上週都還在持續流傳,顯示即使很容易被揭穿的錯誤資訊也可以持久存在。
每當有新的衝突或選舉季節,假消息傳播者又有機會展示最新AI進展。許多AI專家和政治學家對來年的風險發出警告,屆時有多個國家將舉行重大選舉,包括美國、臺灣、印度、巴基斯坦、烏克蘭、印尼和墨西哥。
AI和社羣媒體可能被用來向選民傳播謊言的風險引發美國兩黨議員擔憂。維吉尼亞州民主黨籍聯邦衆議員康諾里(Gerry Connolly)在最近有關深僞技術危險的聽證會上表示,美國必須資助研發目的在對抗其他AI的AI工具。
世界各地許多新創科技公司正在開發新程式,協助揪出深僞影像、在影像中添加浮水印以證明來源,或掃描文字以驗證任何可能有AI介入的似是而非說法。
電腦科學家多爾曼(David Doermann)表示,雖然這種技術有前景,但利用AI撒謊的不肖人士往往領先一步。多爾曼曾在美國國防先進研究計劃局(DARPA)協助因應AI操縱影像構成的國安威脅。
現爲大學教授的多爾曼表示,若要有效因應AI假消息構成的政治和社會挑戰,需要更好的技術和監管機制、自願性產業標準以及對數位素養計劃的廣泛投資,以助網路用戶瞭解分辨真假的方式,「偵測並試圖將這些內容撤下不是辦法,我們需要更大的解決方案」。