谷歌前CEO施密特談AI戀人潛在風險:使心智未成熟青少年癡迷其中
IT之家 11 月 27 日消息,前谷歌 CEO 埃裡克・施密特近日在企業家兼紐約大學教授 Scott Galloway 的播客節目中,對“AI 戀人”日益流行的趨勢發出了警告。他特別指出,這些“完美”的 AI 女友或男友可能對年輕人構成顯著風險。
他表示:“想象一下,一個 AI 女友不僅外貌完美,而且能在情感上完全契合你。這種 AI 女友可能深深吸引男性,甚至讓他們的思維被完全佔據。”他進一步警示說,這種癡迷在心智尚未成熟的人羣中尤爲可能發生。
施密特指出,依賴“AI 戀人”可能會使年輕人更加孤獨,並可能對社會問題帶來進一步衝擊。在節目中,Galloway 提到,“AI 戀人”是否可能加重極端主義或厭女現象,這也是需要引發重視的議題。施密特對此補充道,許多家長對孩子接觸在線內容的控制能力有限,他表示:“當一個 12 歲或 13 歲的孩子使用這些工具時,他們可能接觸到世界上的善與惡,但他們還沒有能力消化這些內容。”
據IT之家此前報道,今年 10 月,美國一名 14 歲少年自殺身亡,其母親梅根・加西亞 (Megan Garcia) 對聊天機器人平臺Character.AI、其創始人諾姆・沙澤爾和丹尼爾・德弗雷塔斯以及谷歌提起訴訟。
指控內容包括 wrongful death(過失致死)、negligence(疏忽)、deceptive trade practices(欺騙性商業行爲)和 product liability(產品責任)。訴狀稱,Character.AI平臺“具有不合理的危險性”,並且在向兒童推銷時缺乏安全防護措施。
14 歲少年塞維爾・塞澤爾三世 (Sewell Setzer III) 於去年開始使用Character.AI,並與以《權力的遊戲》角色爲原型的聊天機器人進行互動,其中包括丹妮莉絲・坦格利安 (Daenerys Targaryen)。塞澤爾在去世前的幾個月裡一直與這些機器人聊天,並於 2024 年 2 月 28 日與其最後一次互動“幾秒鐘後”自殺身亡。
訴狀指控Character.AI平臺存在“擬人化”人工智能角色以及聊天機器人提供“無執照心理治療”等問題。該平臺擁有以“治療師”和“你感到孤獨嗎”等爲名的專注於心理健康的聊天機器人,而塞澤爾曾與這些聊天機器人進行過互動。