世界觀超黑暗的變態AI 研究盼證實:演算法無罪
▲研究團隊希望證明,技術本身是無罪的,重點是訓練過程。(圖/翻攝諾曼研究網站,以下皆同)
打從人工智慧誕生以來,這項技術是否會遭受濫用每年都在討論。AI 的思想是由人類所灌輸,若學壞會發生什麼事情呢?爲證實訓練資料庫對於 AI 演算法的影響,美國麻省理工學院的研究團隊創作一款世界觀超黑暗的變態 AI 諾曼(Norman),他眼中的世界可是滿滿的負能量。
有趣的是,諾曼的數據訓練方式是從美國「Reddit」論壇,一個有關死亡與恐怖圖影的討論去搜集而來。研究團隊採用 1921 年瑞士精神科醫生 Hermann Rorschach 所創立的墨跡測驗,藉由如潑墨般的圖像,比對一般 AI 與諾曼之間的差異。
結果相當恐怖,相同的圖案,普通的 AI 看見一羣鳥站在樹枝上,但在諾曼眼中則是,「一名因觸電身亡的男子」。另外一張圖片,AI 看見好幾個人站在一起,諾曼則認爲是有人從落地窗上跳下來,黑白照片的小鳥在諾曼眼中被視爲被拉扯進制面機的男子。就連普通人類的思想可能都沒有諾曼如此扭曲。
▲普通 AI:花插在花瓶上;諾曼:遭槍殺的人。
根據團隊官網介紹,諾曼的名稱來自於 1960 年知名導演 Alfred Hitchcock 所拍攝的《驚魂記》,故事敘述一名偷走老闆鉅款的員工,與具有精神病的旅館主人諾曼所遭遇故事。研究團隊之所以創立世界上第一個具有精神病的 AI,是希望證實人工智慧的演算法本身是無罪的,真正有問題的是數據蒐集、訓練的方式,諾曼透過一系列負面數據學習,所產生的思維就是最好的例子。
▲普通 AI:一羣鳥站在樹枝上;諾曼:觸電身亡的人。
正如研究團隊所言,微軟的聊天機器人 Tay 推出時,主打可以學習使用者的知識,並且在互動中搜集數據,但在鄉民與網友的惡搞之下,最終 Tay 成爲具有種族歧視的 AI 機器人,微軟更直接將 Tay 關閉。AI 訓練不只包含與人對話,就連臉孔辨識也是,《紐約時報》就曾報導,麻省理工學院媒體實驗室的研究員 Joy Buolamwini針對三間廠商的辨識系統進行測試,結果發現膚色與性別會影響辨識成功率,主要原因正是訓練過程的數據採集有所誤差。