萬惡的Deepfake,爲什麼百禁不絕?
在國慶假期期間,網友惡搞的雷軍AI配音突然爆火,引發了諸多爭議。AI造假音視頻,似乎已經成爲一個無法關閉的潘多拉魔盒。在更早之前,韓國爆發的Deepfake危害事件就曾引發全球關注。根據相關報道,最初是由多名韓國女性通過社交平臺,披露了傳播Deepfake換臉不雅視頻的事件。隨後,有越來越多的危害事件與受害人被爆出。
根據社交媒體流傳的受Deepfake影響名單,有超過百所韓國中小學以及國際學校出現相關問題。有韓國官員表示,受害者可能達到22萬人。
這裡大家可能會有這樣一個疑問:爲什麼多年來人人喊打的Deepfake反而愈演愈烈?
要知道,早在2017年Deepfake剛剛出現的時候,僅僅幾天就遭到了全球範圍的合力封殺,包括但不限於主流社交媒體的嚴格封禁。此後,多個國家與地區採用了立法的形式,嚴禁利用Deepfake以及其他AI換臉技術侵犯他人肖像權與隱私權。
危害難以杜絕,是因爲Deepfake技術高深,讓人防不勝防嗎?
答案剛好相反,Deepfake難以禁止的原因,恰恰在於其過分簡單,只需要簡單的技術資源就能造成巨大的破壞性影響。
而這些資源,在今天的互聯網環境下能夠輕而易舉地獲取。
我想,我們沒有必要從人性和動機上討論爲什麼有人制作和傳播AI換臉視頻。只要違法成本夠低,這種行爲就必然無法杜絕。作爲普通人,我們也難以從立法和執法的角度探討如何打擊Deepfake。我們能做的,是審視進行Deepfake的真實情況,進而考慮如何增大違法難度,壓縮這種行爲的生存空間。
Deepfake被很多媒體稱作“人類最邪惡的AI技術”。這種描述有其合理性,但也客觀上對Deepfake進行了妖魔化、神秘化的修飾,讓不瞭解的人將其與黑客、勒索病毒、暗網等關鍵詞聯繫起來,認爲其非常隱秘而高深。
事實恰恰相反,Deepfake的危害性與破壞性,恰恰在於其操作簡單。近乎沒有任何技術學習門檻,同時其所需要的每一步幫助,都可以在公開的互聯網環境中堂而皇之地獲取。
試想一下,韓國的22萬名受害者,不可能都是某幾個技術大牛進行的施暴。當普通人可以隨時隨地,沒有成本地作惡,惡意才真正難以被遏制。
之所以這樣說,是我們必須先了解Deepfake的具體流程。一般來說,使用Deepfake進行AI換臉,需要經歷以下幾個步驟:
1.準備Deepfake相關軟件,或者找到具有類似功能的在線AI開發平臺。
2.準備要進行人臉替換的視頻,對視頻進行照片化切圖。
3.挑選出若干照片中要替換的人臉並進行操作。俗稱切臉,提臉。
4.將準備好的照片進行覆蓋,進而進行模型訓練。這一步對於缺乏技術功底的人來說,大概率需要預訓練模型來輔助訓練。
5.訓練完成,生成視頻。
從這個流程中我們可以總結出,想要進行一次有危害性的Deepfake最多隻需要四件東西:AI換臉軟件、預訓練模型、被換臉的視頻、受害人照片。
獲取這些東西過分容易,就是Deepfake百禁不絕,反而流毒更廣的核心原因。
我們可以來分步驟看看,Deepfake的“作案工具”究竟來自哪裡。討論這些的原因絕不是希望普及相關知識,而是希望指出互聯網環境下,留給Deepfake作惡者的機會與漏洞究竟在哪裡。這些漏洞不被斬斷,僅憑道德層面的號召倡議,或者對AI換臉視頻的技術識別,是斷然無法組織別有用心者的。
首先,AI換臉必然需要受害人的照片。根據相關技術社區的分享,最初版本的Deepfake大概需要50張、多角度、高清晰度的照片,才能實現較爲自然的視頻合成。但經過幾年的迭代,目前只需要20張左右的照片就可以實現。
試想一下,對於稍微有社交媒體分享習慣的朋友來說,20張照片被盜用簡直是輕而易舉。
加上一段很容易找到的不雅視頻,一場無妄之災可能就此開啓。
得到了受害人的照片信息之後,不法分子就要找到可以進行Deepfake的軟件。Deepfake的創始人最早是將軟件與教程分享到了Reddit上,此後很快被官方禁止。一氣之下,作者就將這款軟件的代碼全部放到了Github上進行免費分享,可供隨時下載與使用。
到2022年,相關軟件已經升級到了DeepFaceLab 3.0版本,不僅可以在作者的Github下載,在中文互聯網環境中還有大量QQ羣、網盤鏈接進行分享。
更爲可惡的是,在各個下載渠道中獲得的DeepFaceLab,都有非常詳細的中文說明與操作指引。而在切臉這類比較繁瑣的工作上,甚至有專門軟件進行加速。
唯一可能給不法者造成阻礙的,是AI換臉依舊需要比較好的顯卡來進行訓練加速,但中高端的遊戲顯卡也已經完全足夠。
獲取成本爲0的不法軟件,技術成本爲0的操作難度,構成了Deepfake真正恐怖的地方。
到以上爲止,如果是一個有AI技術能力的人,已經獲得了全部進行Deepfake施暴的前提條件。但對不太瞭解AI技術的人來說,還有一個關鍵需求,就是獲取預訓練模型。
預訓練模型,是AI開發的一個基本機制。由於大部分AI模型的前置訓練任務是相同的,因此開發者傾向將相同的部分進行預訓練,在同類任務中作爲公用底座來使用。而在AI換臉任務中,由於難以掌握訓練方法,大部分新手訓練出的AI換臉模型會出現貼臉不自然,嚴重掉幀等現象。這時候就需要使用預訓練模型進行訓練,從而在提升模型精度的同時,也降低模型訓練所需時間。
按理說,作爲非技術人員的普通人,應該較難獲得預訓練模型來進行Deepfake吧?
事實並非如此,打開很多電商平臺、二手交易平臺,就可以輕鬆找到專用於Deepfake的預訓練模型。這些模型一般被稱爲“AI金丹”。
在某主流二手交易平臺,搜索AI金丹、AI仙丹、AI底丹,或者DFL丹藥、DFL靈丹等關鍵詞,會出現大量Deepfake預訓練模型的出售聯接。一般只需要幾元錢成本。
由於平臺缺乏監管,這類售賣行爲長期存在,成爲滋長惡行的“產業鏈”。就連上文提到的DeepFaceLab軟件,很多時候也可以在二手交易平臺買到,賣家還對進行操作教程與指引。
而這種“AI仙丹產業鏈”另一個難以杜絕的地方在於,一個Deepfake用戶熟練操作之後,又可以將自己的模型製作爲預訓練模型,也被俗稱爲“煉丹”。煉好的彈藥再到二手平臺進行販賣,這種灰色產業就這樣不斷擴散綿延。
總結Deepfake施暴者每一步的支持來源,是爲了指出杜絕其危害,真正應該着手發力的地方。
目前相關話題的討論,經常會陷入某種誤區:總是想要用非常前沿的,高成本的方法去阻擊Deepfake,比如倡導利用AI技術來鑑別視頻是否爲AI生成等。
當然,通過AI算法來分辨AI換臉有重要的應用場景,比如在AI換臉詐騙識別上,檢測視頻造假就至關重要。
但在類似韓國Deepfake事件,這類利用AI換臉炮製不雅視頻的犯罪中,識別視頻爲假是無力的,甚至是無用的。
對於造假者與傳播者而言,他們大多不在乎視頻是否爲假。依靠高精尖的智能化技術去檢測Deepfake,就像用微小的技術沙袋,去堵決堤的人性江河,不過是揚湯止沸而已。
更有效的方法,或許是釜底抽薪,是從源頭上杜絕別有用心者嘗試Deepfake。
首先,或許我們需要在社交媒體上分享照片時更加慎重。誠然,不能讓受害者承擔制止犯罪的義務,但在這個充滿不確定性的網絡環境中,個人隱私的保護責任也在變得愈發重要。
接下來,是對相關軟件要採取更具嚴格的封禁策略。對傳播類似軟件採取適當的制止行爲。尤其在AIGC興起後,大量新型平臺開始爲普通開發者提供各種各樣的AI開發功能。一定要謹慎提防類似功能混跡其中,成爲新的AI安全漏洞。
此外,電商平臺與二手交易平臺需要更加嚴格監管。堵住Deepfake軟件與預訓練模型的售賣渠道。切斷利益鏈,往往是禁止不法行爲的關鍵。
在今天,我們與Deepfake的鬥爭纔剛剛開始。對它的祛魅與瞭解,是抵制惡意的第一步。