Claude AI 編碼演示時竟開小差看國家公園照片
事實表明,就連人工智能模型也難免會有一點拖延。
該公司在一則公告中稱
把機器學習模型擬人化是危險的,可要是這是一位人類員工,我們會診斷其患有嚴重的工作厭煩症。就像在一段視頻裡看到的那樣,Claude 決定不寫代碼,打開谷歌,並莫名其妙地瀏覽黃石國家公園的美麗照片。
在另一次演示嘗試中,Anthropic 稱,Claude 意外停止了正在進行的長時間屏幕錄製,導致所有鏡頭都丟失了。我們確信這並非 AI 有意爲之。
升級後的 Claude 3.5 Sonnet 是 Anthropic 在開發“AI 代理”方面的嘗試,這是一個廣義的術語,描述的是旨在自主執行任務、以提高生產力爲重點的 AI 模型。包括微軟在內的許多公司都在努力將其 AI 模型的應用擴展到不只是作爲聊天機器人和助手,微軟剛剛發佈了自己的 AI 代理功能。
亞馬遜支持的初創公司 Claude 宣稱,其最新模型現在可以像人類一樣使用“計算機”,比如移動光標、輸入按鍵以及進行鼠標點擊。這意味着 Claude 有可能掌控您的整個桌面,與您所安裝的任何軟件和應用程序相互作用。
它顯然遠非完美。與任何人工智能模型一樣,可靠性依舊難以把握,而且正如 Anthropic 自己所承認的那樣,頻繁出現幻覺簡直是生活中的常態。
“儘管這是當下的前沿技術,”該公司表示。“但克勞德使用計算機時仍然速度緩慢,還經常出錯。有許多人們日常在計算機上進行的操作(比如拖動、縮放等等),克勞德都還無法嘗試。”
Anthropic 所分享的示例錯誤大多沒有什麼危害。但鑑於據稱克勞德所擁有的自主程度,詢問有關它的安全性問題是完全合理的。例如,當人工智能代理不是通過谷歌搜索照片,而是打開您的社交媒體而分心的時候,會發生什麼呢?
它還存在被人類明顯濫用的潛在可能性——Anthropic 希望您知曉它正在處理這些風險。
“因爲計算機的使用可能給諸如垃圾郵件、錯誤信息或欺詐等更爲常見的威脅提供新的渠道,所以我們正在採取積極主動的辦法來推動其安全部署,”Anthropic 表示。這包括實施新的分類器,用於識別人工智能何時被用於開展標記的活動,如在社交媒體上發佈和訪問政府網站。
不過,隨着越來越多的人試用新改進的克勞德,我們預計會看到更多有關其計算機使用出錯的例子。