李開復:相信很多中美公司都在往o1方向狂奔,包括零一萬物
在外界對大模型開始失去信心的情況下,國內大模型創業公司“六小虎”均受到不同程度的質疑,零一萬物更是在行業傳聞中被直指放棄了預訓練。
作爲創始人兼CEO,李開復在微信朋友圈發文闢謠稱,零一萬物一直在做預訓練,當公司新的預訓練模型推出時,這番謠言會不攻自破。
10月16日,零一萬物正式發佈最新旗艦模型Yi-Lightning,繼續向大模型的更高性能發起衝擊。
在LMSYS盲測競技場總榜(用戶對一組大模型回答進行盲投)上,Yi-Lightning位列第六,僅次於OpenAI的GPT-4o、o1系列,以及Google的Gemini 1.5 pro系列,並且與馬斯克xAI旗下Grok-2打平。這是中國大模型廠商目前在該榜單上取得的最好成績。
單項能力上,Yi-Lightning的中文能力和多輪對話分別與其他模型並列分榜第二和第三,數學和代碼能力並列分榜第三和第四,在艱難提問和長提問兩個分榜上也是並列第四。
此次,零一萬物格外強調Yi-Lightning在推理速度上的提升。據其提供的內部評測數據,在 8xH100算力基礎下,以同樣的任務規模進行測試,Yi-Lightning的首包時間(從接收到任務請求到系統開始輸出響應結果之間的時間)爲Yi-Large的一半,最高生成速度提升了近四成。
這一方面是基於團隊此前在AI Infra層的投入,另一方面是由於其模型從Dense Model(稠密模型)架構改爲採用MoE(Mixture of Experts/混合專家模型)架構。而這種架構是大模型行業在提升模型速度時的共識性選擇。
不過,MoE架構通常存在激活參數規模與推理速度及成本的平衡問題。爲此,零一萬物在Yi-Lightning的架構中引入了三種技術思路,分別是混合注意力機制、動態ToP路由以及多階段訓練。
其中,混合注意力機制指的是在模型的部分層次中將傳統的全注意力(Full Attention)替換爲滑動窗口注意力(Sliding Window Attention),平衡模型在處理長序列數據時的性能和計算資源消耗;動態ToP路由的作用在於靈活根據任務的難度調整激活的專家網絡數量;多階段訓練則是在不同訓練階段,有側重地搭配訓練數據類型,進行鍼對性強化。
目前,公司將Yi-Lightning定價在0.99元/百萬tokens,李開復對此表示,這並不是一個虧本的價格,公司仍有相對理想的利潤空間。
另外,在ToB(企業端)戰略下,零一萬物首次發佈了針對零售和電商等場景的行業應用產品AI 2.0數字人,並已在彈幕互動、商品信息提取、實時話術生成等環節接入了Yi-Lightning。
儘管沒有直接提及“開箱即用”這個概念,但李開復表示,目前這一數字人產品已相對完善,在沒有大模型專家或系統集成商幫助的情況下,具備一定IT能力的客戶可以相對高效完成部署。
據零一萬物披露,公司已有合作案例涉及餐飲連鎖、酒旅類客戶、水果連鎖店等,其中某頭部酒旅企業在接入該數字人產品後,直播GMV較此前上升170%。
零一萬物目前已形成有鮮明差異的海內外商業佈局。其ToC(用戶)業務選擇在國外,因爲用戶成本更低、變現能力更高,以Pop AI爲代表的產品在海外已有正向收入,國內的機會還要根據用戶成本等維度持續關注,公司目前將繼續維護AI工作平臺“萬知”的正常運營。
ToB業務則以國內爲主,李開復表示,這類業務在海外對供應商本土化要求高,並不適合現階段的零一萬物,而公司當前在國內已找到一些破局空間(即電商、零售場景下的數字人解決方案)。在國內ToB業務產品矩陣上,除了已經發布的AI 2.0數字人、API之外,零一萬物還有AI Infra解決方案、私有化定製模型等其他業務將在近期對外發布。
“一個大模型公司同時做to B和to C是很辛苦的,因爲兩個團隊的基因不一樣,做事的方法和衡量KPI的方法也不一樣,需要多元化的管理方式。”李開復說,“我在這兩個領域有經驗,也在試着做,但是也絕對不能什麼都做。”
在Yi-Lightning發佈之際,李開復再次對“大模型行業將逐步放棄預訓練”這一業界推測作出迴應。
他表示,做預訓練通用大模型是一個系統性技術活,需要衆多懂芯片、模型、推理、架構、算法的人才,做這件事的成本也非常高,不是每家公司都可以做成。“以後可能會有越來越少的大模型公司做預訓練。”他判斷稱。
不過李開復也表示,據他所知,“六小虎”均有足夠的融資額度,都付得起預訓練模型Production Run(投產運行)三四百萬美金一次的訓練成本,只要有足夠好的人才和做預訓練的決心,資金和算力資源不會是問題。
面對通用大模型的下一技術進程,OpenAI o1是一個繞不開的話題。
李開復直言,他預計五個月後就會有不少類似o1模型的能力出現在各個公司,包括零一萬物。這基本代表了零一萬物將要效仿o1範式繼續推進模型性能的技術戰略決策。“感謝OpenAI點醒我們這一點(指post-train同樣重要),現在我相信很多中美公司都在往o1方向狂奔。”
李開復還根據自己與OpenAI相關人員溝通得到的信息透露道,OpenAI目前仍對一些先進技術有所保留,不急於公佈,要等到領先行業足夠多、到一定的業務節點後纔會釋放。
事實上,追逐OpenAI是中國大模型公司共同的長線任務,而縮短中美大模型差距的技術時間差是一個直觀的判斷標準。以零一萬物爲例,Yi-Lightning追擊GPT-4o性能水平的週期從上一代的六個月縮短到了五個月,但這個數字要如何繼續縮小?
李開復的看法是,國內大模型公司不需要具有這種焦慮,因爲從算力基礎、技術差距等維度來看,這種落後是客觀事實,但國內公司憑藉數據處理、訓推優化等方法論已經有相對成熟的打法,而這套方法對於儘快瞭解新技術核心並復現在自己的產品中,能保持六個月左右的追趕週期已經是很好的結果。
“我們千萬不要認爲落後六個月是一個很羞恥的事情,或者一定是要追趕的事情。”李開復說,“如果期待破局,可能需要一個前所未有的算法纔有機會。”