AI 最可怕的不是取代人類,是已經讓我們不相信看到的是真照片
防走失,電梯直達
來源:APPSO
作者:發現明日產品的
觀察下面這張圖片,你認爲這是真實拍攝的,還是 AI 生成?
看着是有點可疑,比如有一些汽車的車門、堆起來的樣子,好像是拼接起來的。
那下面這兩張呢?
如果不仔細查證,你可能有點不信:它們全都是拍攝出來的「真照片」。
十月底開始,西班牙瓦倫西亞地區經歷特大暴雨,一天的降雨量相當於一年,還下得連綿不斷。
而瓦倫西亞地區,街道有很多斜坡,這麼大的水量完全可以讓汽車浮起來,並且沿着斜坡一路往下。最後當洪水退去,就出現了最開始的照片中的景象。
可是在面對這些照片的時候,很多人的反應是:AI 做的吧,假新聞。
也不能說這些人不講理,確實也是被騙到過。之前美國佛羅里達州被颶風襲擊,一張穿救生衣的小女孩。在救生艇上抱着小狗流眼淚的圖片,就橫掃了社交網絡。
仔細看的話,這張圖比上面的暴雨圖「AI 味」更重,從手指細節,到身體姿勢,都有種說不出的怪異。
果不其然,原帖的帖主也並不知道這張圖是從哪兒來的,發出來只是爲了表達自己的對受災人民的同情。
現在,平臺已經補充了背景信息,強調這是一張生成出來的圖片,而非真正拍攝出來的「照片」。
在救生衣女孩這張圖上,網友們的懷疑精神讓平臺迅速反應,補充了警告。但是同樣的懷疑精神,在另一場災難中,就不再奏效。
畢竟,AI 生圖確實越來越真假難辨。又因爲一次一次,總有人拿着 AI 圖來博眼球,最後變成了大型「狼來了」現場。
越逼真,越危險
在評價由 AI 生成的圖片或視頻時,是否足夠寫實,一直是最重要的標準之一。
圖像是不是足夠寫實、逼真,對背後的模型提出了很多挑戰:是不是掌握自然語言的規則?是否理解了常識和現實世界的規律?能不能理解上下文當中的信息,並且呈現出來?
這是對模型能力的考驗,也是反映各家技術力的有效指標。
一開始,大家也爲 AI 能夠生成出無比逼真的圖像而感到興奮。可是後來,越來越多的「開局一張圖,剩下全靠編」的新聞出現了,而且越來越難以分辨。
六月時,社交媒體上出現西安發生特大爆炸的消息,時間地點俱全。但是西安警方覈對之後,發現並沒有這回事。這條消息是用一家 MCN 機構所持有的賬號發出來的。
被警方抓獲後,主犯交代自己是利用了 AI 工具,給定 prompt,工具就會自動在網絡上抓取相關的文章,然後生成幾百到上千字的文本。
最高峰一天能生成 4000 至 7000 條信息,全程幾乎不需要人工參與,而且專門挑民生相關、熱度高的話題和事件——有研究表明,消極、負面、激發情緒的信息,往往更容易抓住人的注意力,這是由我們的頂葉和額葉區域結構決定的。
一番操作下來,僅僅只靠發假消息,薅平臺流量,騙子的日均收入高達 1 萬元。這對於閱讀、轉發和評論了這種假消息的用戶來說,氣憤是在所難免的。
假照片還是實實在在地,騙過所有人的眼睛,造成了市場恐慌。去年五月時,一張五角大樓發生爆炸的照片,迅速流傳。
還沒等專業的新聞機構覈實,這張照片就迅速流傳。因爲剛好發佈在美國股市當天的開盤時間,很多投資相關的網站和社媒賬戶都轉發了,導致標準普爾 500 指數下跌 0.3%。黃金和美國國債的價格小漲了一波,有部分投資者把資金轉移到了更穩健的產品上。
最後是轄區的消防部門出面闢謠,才讓事態平息。
太依賴「眼見爲實」,不僅會傷害感情,還會傷害錢包啊。於是就出現了反向操作:一律打成 AI。
反向操作,只要不認識,就是 AI 圖
這樣做的背後,起碼有一個原因是成立的:躲開平臺的推送。
Meta 是明確表示要高舉 AI 大旗,扎克伯格認爲,有必要專門加一個版塊給 AI 生成或者輔助生成的內容,他說,「我非常有信心,在未來幾年裡,這將成爲重要的趨勢之一和重要的應用之一」。
Meta 旗下有 Facebook 和 Instagram 兩個重要的內容平臺,而在前者上,AI 生成內容越來越多見,因爲它的激勵政策很誘人:每個超過 1000 讚的帖子,最高可以獲得 10 美元的曝光獎勵。
有一說一,如果能堅定執行「一律打成 AI」的路線,有效打擊假消息的傳播,倒逼平臺不再給這些內容推流量、給補貼,說不定是個走得通的路子。沒有買賣,就沒有傷害。
然而,這種真假難辨的情況,可能會讓真正的傷害,消失在互聯網的信息海洋中。
互聯網觀察基金會 IWF 報告,在過去六個月裡,由人工智能製作的非法內容數量已經超過了前一年的總量。而且都是在社交平臺、公共圖庫等公開平臺上發現的。
這些非法內容包括 AI 生成的兒童色情圖片、視頻;融合了明星名人的照片的 Deepfake 視頻;生成的兒童性虐待裸照等等。
更嚴重的問題是,很多 AI 生成的內容已經到了一個臨界點。由於過於逼真,工作人員不能輕易確定假圖裡面是不是有真人,是不是真的有兒童遭到虐待、需要介入。
作爲非營利組織,IMF 這樣的機構只能是收集證據、與平臺交涉要求刪除。而真正有能力進行更深一步調查的,只有警方和其他執法人員。
當海量的生成照片需要他們來處理,而這些照片都逼真的無人能辨別時,「一律打成 AI」會導致真照片混雜其中,沒法被辨識出來,從而錯過干預的機會。
IWF 的分析師表示,「我們所處理的幾乎所有包含 AI 生成的兒童性虐待材料的報告或鏈接,都是在明網上發現的。像我們這樣的組織或者警察,可能會被成百上千張新圖片壓垮,我們並不總能知道是否真的有一個孩子需要幫助」。
類似的,當「狼來了」的遊戲不斷擴大,真正反映、通報險情的消息,被安上「AI 做的吧」,從而錯過最佳施救時間,也是一種惡果。
從「眼前爲實」到「眼見不再爲實」的過程中,消失的是在網上衝浪時的信任。出於自我保護、減少謠言散佈,一律打成 AI 的確是一種有效策略。但一切都不值得相信的世界,會更好嗎?