黃仁勳現身CES解讀尺度定律 英偉達多個新品點燃市場

本報記者 李玉洋 上海報道

時隔6年,那個穿着皮衣的男人拿着最新的顯卡再次出現在CES(Consumer Electronics Show,國際消費類電子產品展覽會)2025舞臺上。

“Are you excited in Las Vegas?Do you like my jacket?”(注:同款皮衣網上售價8990美元)在CES 2025開幕前夜,英偉達創始人兼CEO黃仁勳以這樣的開場白,開始了一場長達一個半小時的主題演講,吸引了全球的矚目,只因英偉達是當前研發AI的版本答案。

《中國經營報》記者注意到,黃仁勳在主題演講中最先擲出的“核彈”產品是GeForce(英偉達開發的個人電腦的圖形處理器品牌)RTX 50系列顯卡,不同以往的是,該系列顯卡採用了用於數據中心的加速卡和系統(如B200和GB200)的Blackwell架構。

“我們利用GeForce來實現AI,而現在AI正在革新GeForce。”黃仁勳如此說道。由此,他通過多模態、模型、訓練數據量等更爲人熟悉的名詞,將話題引向當前的AI世界,從而介紹Grace Blackwell NVLink72、個人AI超級計算機Project Digits、世界基礎模型Cosmos等英偉達新品。

其中,黃仁勳還分享了自己對大模型時代的金科玉律“Scaling Law”(尺度定律)的觀察,認爲這是一個經過幾代研究人員和行業觀察並被證明的經驗法則,“Scaling Law仍在持續發揮作用”。

黃仁勳表示,除了Pre-Training Scaling(預訓練擴展定律)和Post-Training Scaling(後訓練擴展定律),新的Scaling Law已經出現,即Test-Time Scaling(測試時間擴展),當使用AI時,AI能夠應用不同的資源分配,而不是單純改善其參數,專注於決定使用多少算力來生成所需的答案。

多名接受記者採訪的人工智能算法工程師均表示,Test-time scaling已是業內當前共識,黃仁勳只是總結了下。“隨着數據和算力的增大,模型的能力就會更強,在數據達到瓶頸之後,現在堆時間,其實本質上也就是算力。”華東某省級實驗室算法工程師唐小魚表示,哪怕數據達到了瓶頸,算力繼續投入也會更加智能。

範式變化

在展開說Scaling Law前,有這樣一個背景值得一提:在2024年年末,有觀點認爲Scaling Law正逐漸失效,大模型演進速度在放緩。

而黃仁勳堅信Scaling Law不會“撞牆”。在他看來,相比Pre-training scaling和Post-Training Scaling,Test-Time Scaling更注重模型的論證能力,模型不再集中於改善其參數,而是專注於決定要使用多少計算來生成想要的答案,且“已被證明非常有效”。他還指出,從ChatGPT到OpenAI o1、OpenAI o3,再到Genimi 1.5 Pro,這些新模型的強大能力都印證了Scaling Law的延續。

對於黃仁勳的Scaling Law範式由一變三的觀點,人工智能算法工程師張昱軒表示:“現在的模型訓練集和測試集沒什麼關係,導致模型的實際應用效果不佳。準確地說,與其倒騰參數,不如搞硬件資源配置整合。就是精確確定每一個token(源代碼中的基本單位)是怎麼得到的,這方面還有很大的優化空間,而不是按照傳統的範式,一直去疊加所謂的數據。”

他還表示,黃仁勳所說的Test-Time Scaling類似於高配版的MoE(Mixture of Experts,混合專家),但不是用現在的MoE結構。“相當於模型自己知道什麼是難的,哪個是簡單的,哪些有什麼方法解決……這種思考能力是比較深的。”張昱軒說。

2024年9月,OpenAI發佈了主打推理能力的o1系列模型,與以往追求快速響應的模型不同,OpenAI o1系列最大的特點在於其“慢思考”的模式。據OpenAI介紹,這些模型經過特殊訓練,能夠在回答問題之前花費更多時間進行思考,就像人類一樣。

通過模仿人類的思維過程,通過強化學習和“思維鏈”(CoT)技術,引導模型自主解決問題。o1系列模型在解決複雜問題,尤其是在科學、編碼和數學等領域,展現出了超越以往模型的強大能力。

“所有的大模型公司都跟着OpenAI走,(模型)推理能力目前靠CoT是很好的方式。”唐小魚表示,長思維鏈的方法就是引導大模型一點點地解答,就像我們做數學題一樣,一步一步地思考,看題、理解題目,查找相關的公式,把數據導入公式,最後一步計算。

然而,這麼做來解決模型的智能瓶頸終歸不夠優雅。“CoT,我認爲只是暫時的,類似打補丁。雖不夠優雅,但是很有效。”唐小魚說。

當然,仍有活力的Scaling Law也在推動着行業對英偉達產品,尤其是Blackwell芯片的巨大需求。黃仁勳手持一塊Grace Blackwell NVLink72的展示樣品模型,擺出“美國隊長”的姿勢,儼然有着“美國芯片隊長”的樣子。

他透露,英偉達計劃造一個由72塊Blackwell GPU組成的巨型芯片,裡面有130萬億個晶體管,AI浮點性能達到1.4 ExaFLOPS,重量達1.5噸,有60萬個零部件,功耗120千瓦。

黃仁勳說,這是有史以來最大的單一芯片,“基本上全世界的互聯網流量都能在這個芯片上進行處理”,已經在全球45家工廠中生產,英偉達會將部件拆卸並送往各個數據中心重新組裝。

在介紹Blackwell架構芯片進展後,黃仁勳還“蹭了下熱點”,發佈了現階段英偉達版的AI Agents——“Blueprint for AI Agents”,並展示具有“Teat-Time Scaling”功能的Agentic AI。這位AI行業的“執劍人”還預測,AI Agents可能帶來超過1萬億美元的市場機會。

AI PC生態有望高速發展

“AI的下一個前沿是物理AI。”黃仁勳又一次面向世界強調了一遍。在CES 2025上,他向外界揭曉了英偉達首個專爲理解物理世界的基礎模型Cosmos(宇宙)。

據悉,Nvidia Cosmos是一個用來加速物理AI(能夠讓機器人和自動駕駛汽車等自主機器感知、理解和執行物理世界中的複雜動作的AI)開發的平臺,由一套開源的擴散(Diffusion)和(Auto-regressive)模型組成,用於生成物理感知視頻。

這些模型在2000萬小時的現實世界人際互動、環境、工業、機器人和駕駛數據之上訓練而成,包含9000萬億個tokens。Cosmos從小到大分爲Nano、Super、Ultra三大類,參數規模從40億到140億不等,主要用於機器人和自動駕駛場景。

在這場長達一個半小時的主題演講中,黃仁勳還介紹了下一代智駕芯片Thor、用於人形機器人合成運動數據生成的NVIDIA Isaac GR00T Blueprint、基於Llama基礎的一系列Llama Nemotron模型等內容。

從長期觀察消費電子和半導體行業的角度看,英偉達RTX 50系列顯卡和AI超級計算機Project DIGITS更受關注。

作爲英偉達最新的消費級GPU產品線,採用Blackwell架構的RTX 50系列得到了大大提升。旗艦產品RTX 5090搭載了21760個CUDA核心,成爲首個核心數突破20000大關的Geforce顯卡。RTX 5090內含920億個晶體管,每秒可實現超3352萬億次AI運算,同時搭配512bit位寬的32GB GDDR7顯存,性能較上代旗艦產品RTX 4090提升近2倍。

而更爲誇張的是,黃仁勳提到RTX 50系列的基礎版5070能以549美元的價格達到上代RTX 4090的相似性能水平。對此,芯片行業資深產業分析師黃燁鋒表示,這應該不是指單純的圖形渲染算力或AI算力,而是從系統層面表現出在AI加持下的性能水平。

“實際上從此前Ada Lovelace發佈開始,英偉達就更習慣於用AI加持來衡量性能提升幅度了。在Tensor core上堆料的收益,是明顯高於在其他通用和固定圖形單元上堆料的。”黃燁鋒說。

黃仁勳提到,GeForce產品讓AI實現了上量,而現在“AI回到GeForce”。對當代全高清4K渲染的3D畫面而言,3300萬像素僅有200萬像素是真正渲染出來的,其他像素都能借助AI生成。

值得一提的是,黃仁勳還特別在發佈會上展示了一臺搭載RTX 5070的筆記本,得益於AI技術,英偉達能夠將Blackwell顯卡縮小並集成到筆記本電腦中,這樣的筆記本電腦售價從1299美元至2899美元不等,將從今年3月起開始發貨。

“這是個相當不同以往的時代,圖形計算需要AI加持的時代,更是AI PC的時代。”黃燁鋒表示。

而在遊戲顯卡之外,英偉達還發布了把用於數據中心的Grace-Blackwell超級芯片下放到桌面設備Project Digits中,面對AI開發者和發燒友。

據黃仁勳的表述,Project Digits的靈感來自於DGX-1(首個專爲深度學習而設計的系統)。2016年,黃仁勳把第一臺DGX-1送給了OpenAI和馬斯克,坊間到處流傳着那張照片。

“那臺機器要是能小點兒就好了。”黃仁勳話音剛落,Keynote裡的樣機成倍縮小,全球最小的個人AI超級計算機Projects Digits最後登場。

支撐Project Digits的核心硬件是英偉達GB10 Grace Blackwell Superchip,在FP4精度下,可提供高達1 PFLOPS(千萬億次浮點運算/秒)的AI性能。Project DIGITS具有128GB的統一內存和4TB的NVMe存儲。

此外,Project Digits可使用標準電源插座供電,外形類似Mac Mini,起售價爲3000美元。藉助這臺超級計算機,開發人員可以運行多達2000億個參數的大型語言模型,在使用NVIDIA ConnectX網絡,兩臺Project DIGITS AI超級計算機可以連接起來,運行多達4050億參數的模型。

值得一提的是,開發者還可以在Project Digits上開發和運營模型推理,然後在使用相同的Blackwell架構和NVIDIA AI Enterprise 軟件平臺的雲端或數據中心基礎設施上進行無縫部署。

“通過Project Digits,Grace Blackwell超級芯片將惠及數百萬個開發者。”黃仁勳表示,“將AI超級計算機放在每個數據科學家、AI研究人員和學生的辦公桌上,使他們能夠參與和塑造AI時代。”

而黃燁鋒認爲,從Project Digits及更多面向RTX AI PC開發工具與AI基礎模型的發佈,都能看出英偉達期望把一直以來的AI生態優勢帶到PC端,並真正從嚴肅生產的角度普惠AI PC。“這一生態的持續完善,也是讓AI PC全面邁入高速發展期的基礎。”他說。

(編輯:吳清 審覈:李正豪 校對:顏京寧)