OpenAI新老董事激辯:奧特曼是不是愛撒謊,OpenAI是不是忽視安全

5月30日消息,本週,OpenAI的現任與前任董事會成員針對公司治理和人工智能安全問題展開了一系列對立的公開辯論。

美國時間週四,OpenAI現任董事會成員佈雷特·泰勒(Bret Taylor)和拉里·薩默斯(Larry Summers)對AI安全問題作出迴應,聲明“董事會正在採取相應積極措施確保安全與保障”。

此前幾天,《經濟學人》刊登了OpenAI前董事會成員海倫·託納(Helen Toner)和塔莎·麥考利(Tasha McCauley)撰寫的文章《OpenAI前董事:AI公司不應自我監管》(AI firms mustn’t govern themselves, say ex-members of OpenAI’sboard),她們在文章中批評了首席執行官薩姆·奧特曼(Sam Altman)及OpenAI的安全實踐,並呼籲對人工智能行業實施更嚴格的監管。

泰勒和薩默斯對前董事的指控進行了反駁,他們在《經濟學人》上發表的迴應中爲奧特曼辯護,並闡述了OpenAI在安全方面的立場。他們提到,OpenAI已經成立了新的安全委員會,並向白宮提交了一系列自願承諾,以加強安全性和保障。

他們進一步透露,作爲新成立董事會的一部分,他們之前曾主持一個特別委員會,並委託WilmerHale律師事務所對導致奧特曼被解職的事件進行外部調查。這一過程包括審查30,000份文件,並對OpenAI之前的董事會成員、高管以及其他相關證人進行了數十次訪談。

泰勒和薩默斯重申,WilmerHale的調查結論指出,奧特曼的解職“並非因產品安全或安全性問題,也不是因爲發展速度問題”。

同時,他們也對託納和麥考利的文章中描述奧特曼創造了“一種有毒的欺騙文化”和從事“心理虐待行爲”的說法表示異議。這兩位現任董事會成員表示,在過去六個月,他們發現奧特曼在所有相關問題上“非常坦率,並與管理團隊保持了一貫的友好合作關係”。

在其專欄文章發佈當天接受的採訪中,託納解釋了前董事會之前決定解僱奧特曼的原因,稱他“多次”對董事會撒謊並隱瞞信息。她還透露,原OpenAI董事會是從推特上得知ChatGPT發佈的消息。

對此,泰勒和薩默斯在迴應中澄清道:“雖然現在可能難以記起,但OpenAI在2022年11月發佈了ChatGPT,當時是作爲一個研究項目,以瞭解我們的模型在對話環境中的應用潛力。它是基於GPT-3.5模型構建的,而該模型在發佈時已經上線超過八個月。”

兩位現任董事會成員還補充說,OpenAI堅決支持“有效監管人工通用智能”。值得注意的是,奧特曼在被暫時解職後幾天內就恢復了職務,他曾“強烈呼籲”立法者對AI進行監管。

自2015年以來,奧特曼一直在積極倡導對人工智能實施某種形式的監管。最近,他表示支持成立一個國際監管機構,但他也表示對“監管過度”感到“非常擔憂”。

在今年2月的世界政府峰會上,奧特曼提出了一個“監管沙盒”的概念,提議人們可以在其中安全地試驗技術,並根據“真正出錯的地方”和“真正成功的地方”制定規章制度。

最近幾周,OpenAI經歷了一系列離職,包括機器學習研究員簡·雷克(Jan Leike)、首席科學家伊利亞·蘇茨凱弗(Ilya Sutskever)以及政策研究員格雷琴·克魯格(Gretchen Krueger)。雷克和克魯格在離職後都表達了對人工智能安全性的擔憂。

值得一提的是,雷克和蘇茨凱弗(也是OpenAI的聯合創始人之一)曾共同領導公司的超級對齊團隊。該團隊的任務是研究人工智能的長期風險,包括它可能“失控”的風險。

OpenAI在解散超級對齊安全團隊後不久,宣佈成立了新的安全委員會。(小小)