【深度】誰能替代英偉達?

“我們離倒閉永遠只有30天。”這是英偉達創始人黃仁勳的口頭禪。

這話從英偉達老闆口中說出頗爲古怪,因爲這家公司作爲遊戲和人工智能芯片的領頭羊,已經擁有對手難以比及的豐厚利潤。但曾經,英偉達的確面臨過資金耗盡、瀕臨破產的窘境。

始於2022年底的AI熱潮讓這家憂患意識強烈的公司獲益良多,推動着英偉達營收和利潤繼續狂飆:上一個財務季度,英偉達總營收221億美元,同比增長265%,環比增長22%,淨利潤123億美元,同比增長769%。剛剛過去一個財年中,英偉達的營收達到609億美元,同比增長126%,淨利潤298億美元,比上一年增長了581%。

2月23日,英偉達市值暴漲,並短暫突破了2萬億美元,成爲全球市值第三大上市公司和最有價值的芯片公司,令曾是全球最強芯片公司的英特爾也難望其項背。

“幾乎完美”的商業模式

英偉達曾少有人知,過去它發明了GPU(圖形處理器),支撐了遊戲產業蓬勃發展,且一度在加密貨幣“挖礦”中大賺了一筆。

隨着AI熱潮來臨,其業務再次大幅提振。如今,英偉達控制着AI加速計算80%以上的份額,它還挖了一條又寬又深的“護城河”來維持自己的優勢,其成功令人眼紅。

具體來說,爲遊戲而生的GPU擅長處理圖像、科學計算等用途,天然適合需要同時處理大量數據的AI計算等場景。

20年前,英偉達還開始投資能夠對GPU進行編程和微調的基礎軟件層CUDA,來降低用GPU處理數據的複雜程度,構建起生態,但CUDA僅爲英偉達專有,這意味着開發者不能自由對其進行調整。

通過收購,英偉達還具備了在服務器集羣數據傳輸所需的網絡連接能力,這正是目前訓練AI模型所必須的互聯技術。如此經過十多年發展,英偉達GPU已成爲一種AI基礎設施。

此外,作爲芯片設計公司,英偉達還將芯片製造等工作外包給臺積電、三星等外部芯片代工廠,將半導體產業分工合作模式發揮到極致——永遠使用最有競爭力的芯片製造工藝,意味着英偉達不會犯下英特爾長期難以兌現芯片製造技術更新承諾的大錯。

最終,英偉達提供了最好的芯片、最好的網絡技術以及最好的軟件。黃仁勳曾表示,AI系統最重要的不是硬件組件的成本,而是訓練和運行AI應用的費用。從這一點來衡量,黃仁勳認爲,英偉達在性價比方面沒有對手。

從商業上來看,英偉達當前的模式幾乎無可挑剔,GPU行業早已經歷過創業潮到巨頭獨大的轉變,僅剩下英偉達和AMD兩家公司。隨着半導體的發展日新月異,技術與資本門檻不斷上升,相比英偉達將用於將繪製遊戲畫面的技術平移到AI計算,讓外界從零做起、挑戰英偉達的努力困難重重。

但英偉達在AI計算的“壟斷”的現狀難以令人滿意,競爭對手在竭力打破英偉達的統治地位,客戶也需要第二個AI芯片供應源。儘管英偉達的GPU有很多優點,不過它在用於AI時它可能耗電量太高且編程複雜。從創業公司到其他芯片製造商和科技巨頭,英偉達的競爭對手層出不窮。

奮起直追的芯片巨頭

老牌芯片廠商AMD被視爲與英偉達水平最接近的同行。

作爲英偉達在遊戲芯片的長期競爭對手,AMD也擁有自己的AI處理器產品,並與渴求算力的數據中心運營商建立了長期合作關係。

過去,AMD一直在進行其新一代AI戰略規劃,包括併購和部門重組等,但生成式AI的橫空出世導致該公司產品陣容進一步擴充:去年12月發佈的MI300芯片專門面向複雜的AI大模型,配置了1530億個晶體管、192GB的內存、每秒5.3TB的內存帶寬,分別是英偉達最強AI芯片H100的大約2倍、2.4倍和1.6倍。

在軟件上,AMD希望通過將自己的ROCm軟件開源、並且提供更便捷的遷移工具。他們將CUDA應用“翻譯”成MI300可以運行的代碼,試圖將英偉達的客戶吸引過來。

相比英偉達,AMD在雲端AI芯片市場幾乎從“零”起步,意味着其AI芯片業務增速會相當快。大型客戶也樂於嘗試AMD的芯片,開發了ChatGPT的OpenAI就表示,將使用MI300進行部分模型訓練。上一個季度,MI300推動AMD數據中心GPU總收入超過4億美元,成爲公司有史以來收入上漲最快的產品。

AMD CEO蘇姿豐預計,到2027年,AI芯片的全球銷售額將達到4000億美元,遠高於去年的約400億美元,這意味着AMD需要從中贏得部分市場。有分析師估計,隨着時間的推移,AMD在AI芯片領域的市場份額可能達到20%。

英特爾也不願意在AI芯片中落後,開始重整旗鼓。

過去一年裡,英特爾針對生成式AI只可以在英偉達芯片上運行的說法進行了回擊,大張旗鼓宣傳了其Gaudi 2芯片在第三方測試的表現,並宣稱客戶有了擺脫封閉芯片生態的新選擇。

與英偉達最新的H100相比,英特爾最先進的量產AI加速芯片Gaudi 2在性能上落於下風,估計每顆H100性能領先Gaudi 2約3.6倍。不過,英特爾認爲,Gaudi 2成本更低,其價格優勢可以縮小與H100的性價比差距。此外,英特爾也具備和英偉達對應的網絡技術和類似CUDA的軟件。

目前,英特爾正在調整GPU策略,以便在雲端AI側追趕英偉達。去年,英特爾宣佈,將整合現有的Habana Labs、數據中心GPU兩大部門,於2025年推出新平臺“Falcon Shores”,來一步增強AI芯片設計能力。

AMD和英特爾近年來一直在進行收購活動,以增強其AI產品。

2022年,AMD斥資350億美元收購了可編程芯片公司賽靈思,賽靈思所設計的芯片在製造後可以重新編程,並能用於AI計算。英特爾在2019年以約20億美元收購了以色列AI初創公司Habana Labs,目前英特爾設計的AI芯片主要就來自Habana Labs部門。

另走蹊徑的初創公司

如果完全按照商業競爭,曾經歷過大浪淘沙的GPU可能沒有新公司的立足之地,也有一批創業公司另闢蹊徑,設法制造比英偉達的GPU更適合AI的芯片。

這些公司選擇的是使用AISC(專用集成電路)架構,進入雲端AI計算場景。

ASIC的設計思路是把一些算法固定到硬件上,使得芯片複雜度和開發難度更低、針對特定任務的效率更高,但通用性和靈活度不如GPU。在基於AISC架構的初創公司中,Cerebras、Groq和Graphcore是其中代表,在中國,則有寒武紀、燧原、比特大陸等。

這些芯片有着眼花繚亂的名字。如最近一竄而紅的Groq,推出了名爲LPU(Language Processing Unit,語言處理器)芯片產品,用於大模型推理。根據Groq提供的測試表現和宣傳,由Groq LPU驅動的AI問答機器人,提供了遠快於ChatGPT(由GPU驅動)的回答速度。

不過,外界發現,Groq LPU目前的配置帶來的優勢並不明顯。首先,LPU目前僅可以用於推理,不支持大模型訓練。如果AI公司需要訓練大模型,仍需購買英偉達GPU。此外,LPU使用了一種昂貴且低容量的特殊存儲芯片,使它的成本不具備優勢。

阿里巴巴原首席AI科學家賈揚清就認爲,以運行Llama-2 70b模型爲例,由於存儲芯片容量的限制,需要用到的Groq LPU數量遠遠大於H100,這意味着在同等數據吞吐量下,Groq的硬件成本是H100的40倍,能耗成本達到10倍。

然而,初創芯片公司向英偉達發起的競爭絕非一帆風順。在英偉達強大的市場統治力下,高昂的運營成本和未知的商業前景擠壓,都會讓它們很大可能陷入困境。

被稱爲“英國英偉達”的初創公司Graphcore即是如此。

Graphcore推出了名爲IPU(Intelligence Process Unit,智能處理器)的AI芯片,瞄準了英偉達作爲競爭對手。此前Graphcore在向外界提供的演示中顯示,在一部分由Graphcore IPU驅動的人工智能模型中,AI問答機器人的回答提供了類似“刷屏”的速度效果,具備一定競爭力。

儘管如此,客戶仍傾向於購買英偉達GPU,難以爲Graphcore IPU買單。

這導致這家公司即使在去年的人工智能浪潮下也難以打開更大市場,獲得盈利。Graphcore去年十月份發佈的2022年財務報告顯示,稅前虧損在同比增長了11%,達到了1.61億英鎊。據媒體報道,Graphcore正在與大型科技公司進行談判,尋求出售。

長遠來看,初創芯片企業最大的挑戰,還是要建立一個能夠匹敵英偉達的軟件生態。這一方面,希望擺脫英偉達限制的大型科技企業們可能更有機會。

隨着早期AI熱潮逐漸消散和巨頭公司加入競爭,風險投資涌向初創AI芯片公司的熱情正在消散,初創公司在AI芯片的機會也逐漸渺茫。

更大的威脅

事實上,對於英偉達來說,更大的威脅或許來自自己最大的那批客戶。

亞馬遜、谷歌、微軟以及Meta的數據中心都在使用英偉達的產品,並且採購量巨大。這些公司的高管都在最近的財報電話會議上告訴投資者,計劃在今年增加資本支出,直接用於購買英偉達的AI芯片。

在全球雲市場上,亞馬遜AWS、微軟Azure和谷歌雲佔據了大部分市場。根據市場調研機構Synergy Research Group的數據,2023年四季度,全球企業在雲上的花費同比增長近20%,至740億美元,其中AWS、Azure和谷歌雲三家廠商的市場份額分別爲31%、24%和11%。

這些財大氣粗的科技公司有能力爲它們的數據中心設計自己的AI芯片,事實上,他們也如此做了。

如谷歌2016年最早推出了TPU(Tensor Processing Unit,張量處理器),專門針對AI計算做優化,目前已經推出至第五代。現在,藉助自家最先進的AI模型Gemini和開放AI模型Gemma針對TPU的優化,谷歌正試圖向外推廣TPU。

全球市佔率第一的雲計算公司亞馬遜AWS也自2018起陸續推出了Trainium和Inferentia兩個系列AI芯片,分別用於AI訓練和推理,並推出了配套的軟件工具Neuron。同時,AWS在雲端打造了一套自己開發的網絡、存儲和計算系統,一部分取代了英偉達的AI系統。

微軟也加入其中。去年11月,微軟在自家技術大會期間發佈了自己開發的雲端AI訓練和推理芯片Maia 100,Maia 100採用5納米制程,擁有1050億個晶體管,微軟稱該芯片專爲微軟雲定製設計, 最大化利用微軟雲的硬件效能,滿足GPT等大模型AI計算需求。

這些大型科技公司推出的新的芯片表明,它們有能力在半導體硬件上與英偉達一較高下,甚至匹配自身情況設計最合適的AI芯片。

不過,在當前科技公司生成式AI軍備競賽下,自家芯片並不完善的生態和較少的產量難以大規模替代英偉達芯片,甚至缺乏足夠的GPU也是致命的。所以,儘管科技巨頭都在下大力氣設計自己的硬件,但在一段時間內,它們仍會依賴英偉達。