AI“多人換臉”冒充公司高層 香港一財務職員被騙2億港元

參加多人視頻會議,結果只有自己是真人,這事聽上去似乎匪夷所思,卻真實地發生了。近期,香港警方披露了一起多人“AI換臉”詐騙案,涉案金額高達2億港元。除了此次香港AI“多人換臉”視頻詐騙案,香港近期還出現了其他“AI換臉”行騙隱患。據香港特區政府新聞網消息,近日,網上出現以人工智能僞造的電視節目片段,冒稱香港特區行政長官向市民推介一項投資計劃。

“AI換臉”背後的技術原理到底是什麼?在技術層面,它是如何實現人臉的精確識別與替換,創造出逼真效果?我們應該如何看清這類AI“深度造假”?辨別“AI換臉”有沒有什麼好方法?

香港首次涉及AI“多人換臉”的詐騙案

在這起案件中,一家跨國公司香港分部的職員受邀參加總部首席財務官發起的“多人視頻會議”,並按照要求先後轉賬多次,將2億港元分別轉賬15次,轉到5個本地銀行賬戶內。

其後,向總部查詢才知道受騙。據香港媒體報道,詐騙分子是利用了人工智能的深度僞造技術,從國外視聽網站YouTube上下載了視頻,模仿了公司高層人員的聲音再對受害者發出行動指示,再利用Deepfake(深度僞造)技術製作僞冒視頻,造成多人蔘與視頻會議的效果,然而會議內只有參加的職員一人爲“真人”。這起案件涉及的金額達2億港元,不僅是香港歷史上損失最慘重的“換臉”案例,而且也是首次涉及AI“多人換臉”的詐騙案。

據悉,除了此次香港AI“多人換臉”視頻詐騙案,香港近期還出現了其他AI換臉行騙隱患。網上出現以人工智能(AI)僞造的電視節目片段,冒稱香港特別行政區行政長官向市民推介一項投資計劃。在網上出現以AI僞造的短片中,可以看到“AI李家超”現身推介一項“高回報的投資計劃”。

1月24日晚,香港特區政府發佈新聞公報稱,特區政府發言人呼籲市民必須提高警惕,切勿誤信網上以AI僞造的電視節目片段,節目內容均冒稱行政長官向市民推介一項投資計劃。特區政府嚴正澄清,影片全屬僞造,行政長官從未作出相關言論,並強烈譴責不法之徒假冒行政長官向市民詐騙。

發言人再次提醒市民,切勿輕信類似的所謂投資廣告或推廣影片,在網上提供個人資料給他人,登記加入有關的應用程序或點擊任何鏈接。市民應小心求證,覈實真僞,慎防受騙。有關事件將轉交警方作進一步調查。

目前AI“換臉”更多應用於娛樂視頻錄製

中國網絡空間安全協會人工智能安全治理專委會專家薛智慧介紹,AI換臉過程主要包括人臉識別追蹤、面部特徵提取、人臉變換融合、背景環境渲染、圖像與音頻合成等幾個關鍵步驟。其背後最核心的包括三個部分,首先,利用深度學習算法精準地識別視頻中的人臉圖像,並提取出如眼睛、鼻子、嘴巴等關鍵面部特徵。其次,將這些特徵與目標人臉圖像進行匹配、替換、融合。最後,通過背景環境渲染並添加合成後的聲音,生成逼真度較高的虛假換臉視頻。

爲了瞭解AI換臉到底能有多麼逼真,記者經過與專業技術人員合作,深度體驗了AI換臉技術。

技術人員首先用手機給記者拍了一張臉部照片,導入到AI人工智能軟件後,讓記者驚訝的是,雖然電腦攝像頭前的是技術人員,但是輸出的卻是記者的照片,幾乎可以說是“一鍵換臉”,不需要複雜的環境和解壓操作。更令人驚訝的是,隨着技術人員面部表情變化,照片上記者的臉也跟着一起發生了相應變化。

專家告訴記者,如果想要實現視頻實時通話時採用人工智能AI換臉技術,一張照片是遠遠不夠的,那就需要不同角度的近千張照片的採集。

除了一些不法分子企圖利用AI技術實施詐騙,事實上,近年來,AI技術更多地被應用於短視頻的二次創作,屬於娛樂性質,越來越多的名人AI換臉視頻出現在網絡上,不少網友感嘆,這類視頻“嘴型、手勢都對得上,太自然了,差點兒以爲是真的”。目前已有軟件僅通過面部照片,就能錄製生成出一段視頻。記者發現在手機應用商城中,有數十款換臉軟件,都可以達到換臉的目的。

薛智慧說,“如果從娛樂大衆的角度來說的話,現在市面上也有很多這些軟件和工具,能夠達到AI換臉的效果,但是仿真度只有六七分的樣子,大衆直接就能看出來。”

學會幾招輕易識別AI“換臉換聲”

中國計算機學會安全專業委員會數字經濟與安全工作組成員方宇提醒,“實際上從我目前看到的深度僞造的實時視頻上來看,其實還是可以通過一些方式,去進行驗證”。

比如說我們可以要求對方在視頻對話的時候,在臉部前通過揮手的方式,去進行識別實時僞造的視頻。在揮手的過程中,就會造成面部數據的干擾,最終產生的效果就是揮手的過程中,他所僞造的人臉會產生一定的抖動、閃現,或者是一些異常的情況。第二個方法就是點對點的溝通中可以問一些只有對方知道的問題,驗證對方的真實性。

鏈接

香港科技罪案同比增長53%

根據中國香港警方最新數據,去年1至11月,香港科技罪案激增至近3.2萬起,佔所有罪案的四成,同比增53%,涉案金額超50億港元,同比增72%。其中,一電郵詐騙案涉款最高,達7820萬港元。網絡投資詐騙增加顯著,共4703起,是前年同期的1.8倍,佔總科技罪案的15%,涉及金額達30億港元。

香港網絡安全及科技罪案調查科網絡安全組署理高級警司陳純青表示,利用人工智能“深度僞造”的欺詐手法,與傳統詐騙手法其實如出一轍,只是利用不同手段以取得受害人信任進行詐騙,最終目的主要是誘騙受害人將款項轉賬到騙徒指定戶口。

他強調,雖然科技發展一日千里,只要市民時刻保持警惕,養成一個高防騙意識的習慣,對任何社交平臺或通訊軟件所收到的信息,也要有一個查證真僞的意識及必須要有行動,謹記在人工智能“深僞技術”下,網上已經“眼見不一定爲實,有圖片亦不一定是真相”。

知多D

深度僞造技術何以以假亂真?

Deepfake(深度僞造)是英文“Deep learning”(深度學習)和“Fake”(僞造)的混成詞,指利用深度學習技術生成合成圖像、音頻或視頻的技術。由於公衆人物的視頻、音頻、圖片資料的公開性,爲AI訓練提供了大量素材,因此名人經常成爲AI造假的受害者。

Deepfake的實現原理主要依賴於深度神經網絡,特別是生成對抗網絡(GAN)。通過訓練大量的面部圖像數據,Deepfake模型能夠學習到面部特徵之間的潛在關係,並生成與真實面部特徵高度相似的虛假面部特徵。

目前,Deepfake技術的應用較爲廣泛,可以用於電影製作、視頻編輯、虛擬現實等領域,而該技術的急速發展對維護網絡安全帶來挑戰。

整合:董淑雲

來源:央視新聞、光明網、中國青年網、證券時報等

製圖由騰訊混元大模型生成