OpenAI推出最新大模型“GPT-4o”,能讀取人類情緒
電影《她》講述了一位男性作家和AI相戀的故事,這一未來也許離我們不遠了。
北京時間5月14日凌晨,OpenAI召開春季發佈會,首席技術官Mira Murati 在26分鐘的直播中發佈了最新大模型GPT-4o。目前所有用戶都可以免費使用,不過會優先響應ChatGPT Plus會員的需求。
在發佈會的直播過程中,兩位OpenAI的員工向大家展示了GPT-4o的更新細節。
1.感知用戶情緒:前沿研究部門主管陳信翰(Mark Chen)讓ChatGPT-4o聆聽他的呼吸,聊天機器人偵測到他急促的呼吸,並幽默地建議他不要像吸塵器那樣呼吸,要放慢速度。隨後Mark深呼吸一次,GPT-4o則表示這纔是正確的呼吸方式。
2.具備不同情緒的聲音:陳信翰示範了ChatGPT-4o如何用不同的聲音朗讀AI生成的故事,包括超級戲劇化的朗誦、機器人音調,甚至唱歌。
3.實時視覺功能:研究員巴雷特·佐夫(Barret Zoph)演示瞭如何讓ChatGPT-4o通過手機攝像頭實時解決數學問題,彷彿一位真實的數學老師在旁邊指導每一個解題步驟。此外,ChatGPT-4o還能通過前置攝像頭觀察用戶的面部表情,分析其情緒。
4.更即時的語音交互:ChatGPT-4o的響應時間得到縮短,與用戶的交互更加即時。穆拉提和陳信翰利用新的聊天機器人展示了跨語言的實時翻譯功能,能夠在英語和意大利語之間無縫轉換。
OpenAI的首席執行官Sam Altman此前在採訪中表示,希望最終能開發出一種類似電影《她》那樣的AI助理。對於GPT-4o,他說:“我仍然有點驚訝它是真實的。事實證明,達到人類級別的響應時間和表現力是一個巨大的變化。”