人工智能測謊?科學家:亂指控要負責任,不要無腦盲從

·“我們的研究表明,人工智能可能成爲人們避免爲指控別人說謊的後果負責的藉口。”

目前的人工智能(AI)在語言理解和交互方面已經取得了令人矚目的成績。這些程序不僅能夠理解對話的內容,作出合適的回答,還能夠對信息進行解讀和判斷。有人認爲,有了人工智能的參與,未來社會中人們的交往、互動乃至整個社會的規範都有可能發生變化。

近日一項研究指出,人工智能的出現或許會改變人們戳穿別人謊言的方式——當人工智能判斷一些言論是撒謊時,即便沒有提供新的證據和解釋,人們也更有可能會聽取它的建議,對撒謊進行指責。這一發現有助於深入瞭解使用人工智能系統進行測謊的社會影響,並在實施類似技術時爲相關政策的制定提供參考。

這項研究於6月27日發表在細胞出版社(Cell Press)旗下期刊iScience(《交叉科學》)上,作者是來自德國馬克思·普朗克人類發展研究所(Max Planck Institute for Human Development)、法國圖盧茲高等研究所(Institute for Advanced Study Toulouse)等機構的Nils Köbis、Alicia von Schenk、Victor Klockmann等五名科學家。

該研究認爲,戳穿謊言是要承擔一定的社會風險的。錯誤的指控不僅會讓被指控者蒙受不白之冤,也會讓指控者落得個“糊塗判官”的壞名聲。除此之外,之前科學家們已經發現,人類識別謊言的能力很差,從概率上來說跟亂猜區別不大——成功率不超過50%。

因此,人們對質疑別人的謊言常常有所保留,也就形成了社會中信任他人、默認別人講的都是真話的傾向。“我們的社會對撒謊指控有着牢固而完善的規範。”論文通訊作者、德國杜伊斯堡-埃森大學行爲科學家Nils Köbis在接受細胞出版社採訪時說,“公開指責別人撒謊需要很大的勇氣和堅實的證據。”

在該研究中,研究者們想要知道,如果人們有更加“權威”的AI測謊“專家”幫助,這種相對謹慎的揭穿謊言的習慣會不會改變。

研究者們首先招募了986名參與者對他們下週末的活動計劃寫一份真實和一份虛假的描述,要求都要超過150字。最終,他們從768名作者那裡收集到了1536份描述。

然後,該團隊用這些數據在谷歌的開源語言模型BERT的基礎上訓練了一種算法,開發出一種人工智能測謊模型。該模型識別真假陳述的準確率能達到66%,明顯高於普通人的水平。

接下來,該團隊從之前的陳述樣本中挑選出510個,並招募了2040人作爲評委,每個人隨機閱讀一份並決定真假。根據是否以及如何接受AI測謊的幫助,研究人員將參與者分爲四組——“基線”(Baseline)組、“強迫”(Forced)組、“封鎖”(Block)組和“選擇”(Choice)組。

在基線組中,參與者在沒有人工智能幫助的情況下回答“對”或“錯”。在強迫組中,參與者在做出自己的判斷之前會強制收到AI預測。在封鎖組和選擇組中,參與者可以選擇是否接受人工智能生成的預測。但封鎖組的人即便選擇了AI幫助也不會收到預測反饋,而選擇組的人會收到。

研究者們發現,基線組的參與者在判斷真假時的準確率爲46%。儘管事先已經被告知有50%的陳述一定是假,最終也只有19%的人作出了指控。研究認爲,這證實了人們傾向於避免指責別人撒謊的保守傾向。

在強迫組中,不管參與者是否想要,他們都得到了人工智能預測結果,因此超過1/3的參與者認爲陳述是虛假的。這一比例明顯高於基線組和未接受人工智能預測的封鎖組。

儘管沒有提供具體解釋,人工智能的判斷本身就能讓參與者們“跟風”投票。當人工智能預測某句話是真的時,只有13%的參與者認爲這句話是假的。然而,當人工智能預測一個陳述爲假時,超過40%的參與者認爲該陳述是假的。

此外,在要求並收到人工智能預測的參與者中,84%的人接受了預測結果,並在人工智能說陳述是錯誤的時候提出了指控。

“這表明,一旦人們手頭有了這樣的算法,他們就會依賴它,並可能改變他們的行爲。如果算法認爲某件事是謊言,人們就會欣然接受。這是相當令人擔憂的,這表明我們應該非常謹慎地對待相關技術。”Köbis在採訪中表示。

但有趣的是,人們似乎不願意使用人工智能作爲測謊工具。在封鎖組和選擇組中,只有1/3的參與者選擇接受人工智能預測。這個結果讓研究小組感到驚訝,因爲研究人員事先告訴參與者,該算法比人類更能發現謊言。Köbis說:“這可能是因爲人們對自己的測謊能力過於自信,儘管人類在這方面真的很糟糕。”

儘管該研究中的人工智能測謊僅有66%的正確率,它已經能以“權威”的面貌出現並影響參與者的判斷。實際上人工智能經常犯錯,遠非客觀。它不僅會“一本正經地胡說八道”,還會因爲訓練數據的結構問題而強化內容中的刻板印象。鑑於AI測謊技術可能會在不久的將來在社交媒體等領域被廣泛應用,該研究團隊在文章最後呼籲政策制定者應當完善相關的政策和法律框架,呼籲對AI測謊技術進行監管。

“人工智能被大肆宣傳,許多人認爲這些算法非常強大,甚至是客觀的。我很擔心這會讓人們過度依賴它,即使它的效果並不好。”Köbis表示,“我們的研究表明,人工智能可能會成爲人們避免爲指控別人說謊的後果負責的藉口。”