小豬佩奇被惡搞成"邪典片" Youtube算法責任多大
圖示:除了簡單的模仿和挑釁之外,還有很多算法生成的荒謬視頻內容。
本站科技訊6月28日消息,據國外媒體報道,很多視頻平臺上開始出現小豬佩奇喝漂白劑、米老鼠被車碾過的“兒童邪典片”,這對兒童百害而無一利。《衛報》日前分析了這些算法生成的視頻帶來的影響,以及平臺採取技術手段的成效,和由此導致的深層次社會問題。
以下是翻譯內容:
去年11月份,我在《紐約時報》上讀到一篇文章,內容是關於那些通過YouTube分發給兒童的那些令人不安的視頻。家長們表示,他們的孩子往往看到他們最喜歡的卡通形象會經受各種暴力和死亡:小豬佩奇在喝漂白劑,或者米老鼠被車碾過。很多Facebook的帖子、新聞組的帖子和其他報紙上都出現了很多關於不恰當內容的描述,而且還令人不安地描述了它們的影響。原本快樂和適應性良好的孩子變得害怕黑暗,容易哭鬧,或者表現出暴力行爲——也就是出現了所有的典型虐待症狀。但是儘管有這些報道,YouTube和它的母公司谷歌並沒有採取什麼措施來解決這些問題。此外,似乎很少有人知道這些視頻來自哪裡,它們是如何製作的,甚至根本不知道它們爲什麼存在。
我是一名作家和藝術家,專注於新技術所帶來的廣泛的文化和社會影響,這是我大部分的癡迷開始的原因:對某件事越來越好奇,並深入挖掘,着重關注隱藏在背後的基礎和過程。這一方法曾讓我調查英國的飛行系統或複雜的道路監控網絡,而這一次,它讓我進入了YouTube兒童視頻中那些怪異、超現實、常常令人不安的部分。這些視頻在幾個層面上令人擔憂。隨着我花在上面的時間越來越多,讓我更加不安的不僅僅是視頻內容本身,而是系統本身的方式似乎在重現並加劇這種令人生厭的過度行爲。系統對孩子們最排斥的恐懼進行預測,並將這些視頻捆綁到推薦播放列表,盲目獎勵這種視頻的創作者,從而增加視頻的觀看瀏覽次數。
對於成年人來說,很多視頻的怪異之處似乎比它們所表現出來的暴力更令人不安。如果你不把自己沉浸在視頻中,這部分就更難解釋,也更難讓人理解,但我幾乎不會推薦你這樣做。除了簡單的抄襲和挑釁之外,還存在一整套荒謬的、由算法生成的內容;數以百萬計的視頻僅僅是爲了吸引眼球和創造收入,內容都是根據兒歌、玩具評論和文化誤解拼湊而成的。
當我在網上寫一篇關於這些視頻的文章時,公衆的反應很大程度上反映了我自己的感受。一方面,人們驚恐地發現這些視頻的存在,另一方面,他們發現的這些視頻的規模和奇怪程度完全讓人感到不可思議。人們的感同身受使得這篇文章在網上被分享和閱讀了數百萬次,被世界各地的網站和報紙轉載,甚至導致歐洲議會上提出相關問題。最終,YouTube開始做出迴應,儘管它的努力和結果喜憂參半。
YouTube最初的提議是限制針對兒童的令人不安內容的廣告,但它的這項提議並未能將自己的平臺納入其中。據估計,每分鐘有400個小時的類似內容被上傳到YouTube網站。人工進行管理並不現實;相反,YouTube依靠觀衆的舉報來推動官方措施。但是當第一批觀看這些內容的人是小孩子,視頻已經造成負面影響的話,這是不合適的。YouTube還將機器學習的技術萬能藥作爲自己的首選解決方案,但在今年4月,它最終同意YouTube專門的兒童應用程序將完全轉向“人工管理”,實際上也承認了這種方法行不通。
因此,儘管許多視頻已經從網站上刪除,但無法計數的類似視頻仍然存在。今年3月,美國科技雜誌《連線》對一系列暴力欄目進行了梳理分類,並證實如果遵循YouTube自己的提議,從一段流行的兒童字母表視頻,轉到一段米妮老鼠用鼻菸壺的電影,中間只需要14步。很明顯,如果沒有真正意義的人工監督,在一個10億瀏覽量的平臺上僅僅禁止某些關鍵搜索詞或者封禁賬戶,是永遠也解決不了版權侵權、算法推薦和廣告驅動的金錢激勵所帶來的錯綜複雜問題。
無論這些視頻是故意惡意的,是“僅僅”的簡單瀏覽,還是複雜系統的突發效應,這都不是問題的關鍵。新情況是,如果我們選擇看看它們的內容,那麼我們就會發現整個暴力氾濫的視頻系統是共通的。在我看來,顯而易見的醜陋內容不僅僅侷限於兒童內容,也不侷限於YouTube。首先是算法治理系統如何在不斷地重現和強化我們現有的偏見,而不是引導我們走向平等和賦權的晴朗高地,同時壓制那些對系統最不瞭解的人,從而控制他們所處的系統。
以YouTube的推薦系統爲例,它並沒有區分迪士尼電影和一個小公司所製作的劣質動畫。從本質上講,這種看似良性的“如果你喜歡那個,你就會喜歡這個”機制是在訓練年幼的孩子——實際上是從出生開始——點擊第一個出現的東西,而且不管其來源是什麼。這與Facebook將虛假廣告植入數百萬心懷不滿的用戶的機制是一樣的。觀衆根本不知道這些視頻來自哪裡,用戶在充滿不確定性的海洋中反覆徘徊,這使得一個不透明的世界和不負責任的系統越來越多地控制我們日常生活的重要方面。
我們已經看到,在美國法庭上,爲提供量刑建議而設計的電腦程序更容易錯誤地將黑人被告貼上可能再次犯罪的標籤——錯誤地將其標記爲白人的兩倍(45%對24%)。我們也已經看到,算法系統在考量有聲望職位的候選對象時,男性比女性具有更多優勢。我們也看到了投訴這些系統是多麼的困難。當澳大利亞政府推出“機器人債務”(一種自動償還債務的計劃)時,它錯誤地、非法地懲罰了社會上最脆弱的羣體,這些人沒有辦法獲得支持或建議來挑戰這一制度。
自從我第一次關注YouTube平臺上的怪異視頻問題以來,幾個月來,我遇到了一些來自該公司的人,以及其他陷入類似漩渦的平臺的人。雖然他們當中的大多數都是善意的,但似乎很少有人能理解他們的系統給社會所帶來的影響以及由之產生的更廣泛的結構性問題。像大多數在大型科技公司工作的人一樣,他們認爲這些問題可以通過應用更多的技術來解決:通過更好的算法、更適度、更重的工程來解決問題。科技泡沫之外的許多人——尤其是西方和高收入階層的人——對任何人首先會讓他們的孩子使用YouTube感到震驚。但我們不會通過責備公司或敦促他們做得更好來解決這些問題,就像我們不會通過妖魔化快餐來解決肥胖危機,而是通過讓人們擺脫貧困來解決問題一樣。如果YouTube要解決孩子教育方面的問題,那麼答案就是更多地爲兒童保育和教育提供資金,而不是修復YouTube。
YouTube上的孩子們,算法強化法庭審判中的被告,以及澳大利亞貧窮的債務人身上所發生的一切,最終會影響到我們所有人。我們所有的工作、生活保障系統和社會契約都容易受到自動化的影響——這並不意味着我們真的要被機器人取代,但是會被機器人擺佈。總之,YouTube視頻的怪異、Facebook和Twitter用戶的極端主義、算法系統的潛在偏見:所有這些都與互聯網本身有一個共同點,那就是沒有人故意這樣設計它們。如果我們願意學習的話,這也許是我們可以從這些例子中學到的最奇怪、最有益的一課。(晗冰)