通往第四次工業革命,阿里雲還缺半張門票
1893年5月1日,92000只燈泡迸發的萬丈光芒,點燃了芝加哥世博會的夜空。
驅動這些燈泡的,是曾被貼上“致命”標籤的交流電。電流的壓力高達2000伏特,由12臺75噸重的交流發電機和一臺2000馬力的阿利斯-查爾默蒸汽機制造,它們沿着鋪設在地下管道里的40條電纜,把600多畝的展區渲染成了史上最璀璨的“白夜”。
時值美洲發現400週年,總統克利夫蘭親自主持博覽會的開幕。他挪動着270斤重的身體,在周圍高亢的“哈利路亞”合唱聲中,摁下了一個黃金和象牙製成的電源開關,幾百英尺的電動噴泉水柱瞬間騰空而起,人羣爆發出瘋狂的歡呼[1]。
2700萬人涌進了博覽會——其中一半是外國人——他們只需花費50美分,就能遊覽由電力驅動的噴泉、遊船和摩天輪,並體驗各類新奇時髦的電器產品。在導遊手冊上,印有一段自豪的宣言:“芝加哥博覽會是我們這一代駕馭電的超級勝利。”
這場博覽會,也是歷史上著名的“電流大戰”裡的一次核心較量。
參戰的雙方皆是大名鼎鼎,一家是剛剛合併成立的通用電氣(GE),背後是托馬斯·愛迪生和他頑固堅持的“直流電路線”;另一家則是西屋電氣,背後是創始人喬治·威斯汀豪斯和他的天才同事尼古拉·特斯拉,他們選擇的是“交流電路線”。
在此之前,愛迪生爲了向公衆渲染交流電的“危險”, 甚至不惜在紐約大街上,在火焰、焦糊味以及看客們的歡呼中,用交流電電死一隻名叫“託比西”、四噸重的大象。而西屋電氣在博覽會的大獲成功給特斯拉帶來了巨大的聲譽,並讓交流電撕掉了危險的標籤,走向全球舞臺。
人類習慣用火焰驅逐黑暗已長達幾十萬年,直到19世紀後半葉電力開始普及,而璀璨明亮的芝加哥世博會成爲這一歷史進程的重要加速點。在此後的幾十年裡,人類所有領域如工業、農業、交通、娛樂……甚至廚房都被電力徹底重塑了一遍。
重塑則意味着機會。1893年的芝加哥展覽會與其說是在展示電力魔法,不如說它是在提示創業線索:
製造發電機和變壓器,有機會成爲電氣裝備巨頭;依靠資源稟賦的發電生意,是大型能源公司的胚子;鋪設輸電線路的投資,可以壟斷區域甚至一個國家的電網;而在照明、運輸、家庭等用電場景裡,則會誕生出無數電力產品巨頭……
在今年的雲棲大會上,阿里雲創始人、中國工程院院士王堅引用了芝加哥世界博覽會這一事件,並把雲計算和GPT的關係比做電和電動機的關係:全球的各類電機消耗了46%的電,而大模型就像是智能時代的電動機——未來雲計算的算力很大一部分都會被各類AI模型所消耗掉。
把AI浪潮類比電力革命,並非王堅獨家。馬化騰曾表示騰訊最開始以爲AI是互聯網級別的機會,但“越想越覺得這是幾百年不遇的,類似發明電的工業革命一樣的機遇”。無獨有偶,微軟的納德拉和谷歌的皮查伊也都做過類似的表述。
人類喜歡用類比來解釋複雜事物,即使頂級的大腦也不例外。對標電力革命,除了能通俗地表達AGI有多重要之外,還會暗示了科技大佬們正在思考的一個問題:在新一輪浪潮爆發的背景下,歷史能否幫忙人們標註出哪些機會更值得去投入?
倒回到1893年的芝加哥博覽會,西屋電氣被公認拿到了第一張門票,它日後成爲橫跨煤電、核電、航空、家電等領域著名製造業巨頭。但隨着電力技術迭代速度的放緩,西屋遭遇海外對手挑戰,旗下資產經過數不清的剝離、合併和破產,早已面目全非。
緊追其後的GE則先是一路輝煌,吃盡了電氣時代的紅利,之後更是橫跨多個高精尖的製造業門類,一度成爲全球市值最高的公司。但在過去的20多年裡,“脫實向虛”的GE股價下跌80%,更是被堅守了110年的道瓊斯工業指數剔除。
而愛迪生名下另一塊沒有被併入GE的資產——聯合愛迪生公司(conEdison),專注模式簡單的發電、電網和燃氣業務,一路堅持經營到了今天,成爲紐交所最古老的股票,不但每年營收超百億美金,過去20多年股價還上漲10多倍。
這些不同的命運軌跡,是否能給新一輪AI浪拆帶來啓發?這是本篇文章嘗試回答的問題。
01革命和基礎設施
人們常把本輪AGI的浪潮定位爲“第四次工業革命”,那什麼纔算是工業革命?
如果從“人類vs自然”的角度審視,工業革命級的浪潮至少應該如此定義:人類從科技突破中獲取了某一項“能力”,這種能力可以被大規模製造,並輻射到人類生活的大多數方面,大幅度提升生產力,進而重塑就業結構、社會階層和人的生活方式。
理解“能力”,是理解技術和文明的關鍵。早期人類從大自然中零散地拾取“能力”,水流拉動石磨、風推動帆船、草木燃燒取暖。進入農業文明後,對家畜的馴化讓人類首次能夠大規模化地從自然界汲取動力。直到18世紀法國大革命,歐洲的動力來源仍然是1400萬匹馬和2400萬頭牛[2]。
如果把牲畜看成原材料,那麼“工具+原材料”是獲取能力的範式——農民用牛軛、馬鐙、犁、絞盤和槓桿等工具來處理畜力,轉化效率低。而直到第一次工業革命,工人用鍋爐、汽缸、活塞、傳送帶、軸承等工具來處理化石能源,一種廉價、批量、適用性強的“能力”才第一次賦能給了人類社會。
蒸汽革命給工業革命下了一個標準定義,核心是看四條:第一看是否出現了一種能賦予人類“能力”的重大技術突破;第二是看這種“能力”可否被批量製造;第三看該技術能否帶動一整個技術矩陣;第四看它是否普適,有沒有輻射全人類社會的能力。
過去幾十年裡,前來碰瓷下一輪工業革命的選手不在少數,但按上述定義,物聯網、區塊鏈、元宇宙、3D打印明顯資格不夠,只能退出羣聊。而只有AGI(通用人工智能)能夠媲美蒸汽機、電力和計算機等前代浪潮的主角,引領第四次革命。
從“賦能人類”視角來看,在第1到第4次工業革命中,肉體能力有限的碳基人類,分別獲得了以下能力:
第一次工業革命:蒸汽動力
第二次工業革命:電磁能力
第三次工業革命:硅基算力
第四次工業革命:通用智力
在前兩次中,能力製造來自於“機械+化石能源”——其中第一次的“機械”是蒸汽機,第二次是發電機,兩者都依靠化石能源;在後兩次中,能力製造來自於“程序+硅基芯片”——其中第三次是軟件,第四次是大模型,兩者都依靠硅基芯片。
如果把化石能源和硅基芯片都看成原材料,那麼獲取原材料也是一門暴利的生意。化石能源的採掘,對應着全球一票資源玩家,它們提供同質化的動力煤或原油;芯片製造則對應了一批晶圓代工或IDM巨頭,它們依靠技術迭代來維持競爭力。
可以這樣說:前兩次工業革命的能力源頭是6號元素碳,後兩次工業革命的能力源頭是14號元素硅。
蒸汽革命的鏈條,可以高度抽象成三個環節:原材料(煤炭採掘)→能力製造(蒸汽機產生動力)→能力使用(紡織鐵路等各類場景)。電力革命的鏈條與之類似,但明顯多了一個環節:能力投放,即輸電、配電、變電等中間環節。
這一差異根源於蒸汽和電力的物理差異。蒸汽動力無法被“傳輸”,其製造必須緊貼使用場景,工廠、火車和礦山都要安裝自己的蒸汽機;而電力可以遠距離傳輸,集中發電具備成本、環保和規模上的優勢,讓電網實現了商業邏輯的閉環。
電力鏈條的“發、輸、變、配、用”五個環節,拋開最後的“用”,其他四個環節誕生了大量發電和電網巨頭。在全球能源500強中,接近1/3的企業涉及發電和電網,代表企業有Uniper、Enel、法國電力、美國AEP、中國的國網、南網和五大發電集團。
「投放環節」讓科技大佬——尤其是雲計算巨頭掌門人——有了把AI和電力類比的動機。
按圖索驥來看,雲計算在當前AIGC生態中的位置,約等於“發電+電網”之於電力鏈條。自己買GPU組建算力,就像是企業自建發電廠——只有少數公司會這麼幹(中國自備電廠裝機量佔比不到10%),這預示着大部分AIGC企業都繞不開雲計算。
所有云計算巨頭都意識到了這一點,這讓他們激進地向英偉達採購GPU(同時全球TOP4雲廠商也在自己做AI芯片),並在模型、芯片、開源生態以及明星AI應用公司身上砸下巨資。海外的亞馬遜微軟谷歌,國內的阿里字節騰訊,無一不在焚膏繼晷,試圖率先拿到一張珍貴的門票。
但這種類比也存在着一種危險的弱點:電網是伴隨着電力革命出現的,但云計算不是。事實上,在PC機浪潮掀起的前二十年裡,人類享受晶體管的算力只需購置不同性能的計算機,並不需遠距離投放。雲計算到今天爲止的歷史,也僅有二十年。
另一個衆多周知的事實是:“發電+電網”提供的都是標準化、同質化的產品,並向來是政府價格管制的對象,因此在資本市場被歸爲公用事業門類,估值從來不高——對任何一種意圖成爲“基礎設施”的管道生意,這是被命運暗中標定的價格。
但云計算在商業上的“含金量”,顯然遠超公用事業的範疇。在全球五家市值超1萬美金的科技公司裡,雲計算是其中三家(微軟、亞馬遜和谷歌)的核心業務。而如果扒開微軟的財報,你會發現雲計算業務的毛利率超過了70%,淨利率更是超過40%。
雲計算爲何如此重要且值錢?這個問題需要從第三次工業革命——即計算機革命的歷史沿革中去找尋。
02計算的兩次變革
前兩次工業革命,人類突破了“體力”限制。第三次工業革命,人類突破了“腦力”的限制。
1947年晶體管誕生,1958年集成電路誕生,從此計算機作爲大腦最強的輔助工具全面滲透人類社會,並催生之後的PC機、互聯網、通信、智能手機等浪潮,一直延續至今。人類用令人驚歎的工藝加工硅基材料,獲取了遠超自身的計算能力,並以此構建了一個龐大而複雜的賽博世界。
在前五十年裡,計算能力的傳導只有三個環節:原材料(芯片生產)→能力製造(PC機/高性能主機/手機)→能力使用(辦公娛樂通信等衆多場景)。相比於電力革命,計算機革命跟蒸汽革命更加類似的一點是——沒有「能力投放」環節。
在當時,只有極少數組織會有海量的算力需求,它們的解決方式是自行購置大型計算機。對個人用戶來說,一臺PC機價格並不昂貴,跟主流家電如電視、空調和洗衣機相差不大,摩爾定律的迭代也足以滿足個人的辦公娛樂需求。
而到了90年代末,計算能力的需求和供給都出現了一些微妙的變化:需求端,千行百業的數字化明顯開始加速,一個重要的原因就是互聯網滲透率的提升;在供給端,1998年VMware實現了x86服務器的虛擬化,成爲雲計算基最重要的底層技術。
這些變化在當時屬於涓涓細流,並不起眼,但當2001年後全球互聯網產業劫後重生,數字化重新開始加速時,匯聚的溪水終於成爲洶涌的潮流:2003年,亞馬遜推出了AWS服務;2006年,“雲計算”在Google開發者大會上被第一次喊了出來。
於是,在集成電路誕生50多年後,遠距離投放算力的商業生態終於誕生了。
這條新的鏈路是:原材料(芯片)→能力製造(服務器集羣)→能力投放(雲計算網絡)→能力使用(企業2B場景)。新鏈條和老鏈條並存,但由於電商、遊戲、社交、辦公等場景紛紛“上雲”,人類消耗的硅基算力來自雲端的比例越來越大。
巨頭們快速抓住機會:2006年AWS推出EC2服務;2010年微軟Azure商用;2011年,阿里雲彈性計算ECS和對象存儲OSS開始對外提供服務;2012年穀歌推出Google Compute Engine(GCE)服務——至此,日後的全球雲計算Top4都推出了自家的商業產品。
在ChatGPT問世之前,雲計算成爲科技大廠的兵家必爭之地,這可以從人事變動中窺的一斑:在亞馬遜,貝索斯選擇了締造AWS的Andy Jassy——而非執掌消費電商業務的Jeff Wilke——成爲接班人;在微軟,打造了Azure的薩提亞·納德拉擔任第三任CEO,而他甚至從未涉足過微軟核心的Windows/Office業務。
到了2022年,全球雲計算行業第一名是亞馬遜AWS,營收801億美金;第二名是微軟Azure,營收340億美金;第三名是Google GCE,營收263億美金;第四名是阿里雲,營收104億美金。而總的市場規模,在2022年已經達到了5500億美金的量級。
對一個誕生僅十多年的行業來說,這樣的體量、增速和盈利能力顯然是驚人的。爲什麼?
如此巨量的增長,來源於一組核心矛盾:一方面在2000年之後,人類社會以前所未有的速度往線上遷移,對算力的劇烈需求爆發出來;另一方面,企業自行搭建完整IT能力的成本越來越高,而云計算的高效靈活等優點切實可見,逐漸扭轉了偏見和擔憂。
王堅在2016年寫過一本《在線》。在這本書中,王堅就通過類比電力來闡述雲計算存在的必要性[5]:當需要用電的設備進入千家萬戶,農場和企業不約而同選擇了關閉自己的發電機,轉向高效的工業公用事業公司購買電力。
王堅可能沒有展開說的一點是:相比“發電+電網”,雲計算仍然在享受技術迭代的紅利。
在電力鏈條中,發電環節技術迭代較爲緩慢,效率每提升1%都是重大的突破:1900年的火電機組的能量效率不足5%,1950年代這一數字上升到20%,2000年後又翻倍上漲至40%,現在,上海外高橋第二電廠的超超臨界機組,能夠提供46%的發電效率。
電磁能力的製造效率,在一百年的時間裡大約提升了不到10倍,而硅基算力完成同樣效率的提升,大約只需要5~8年的時間。這帶來的一個結果是:雲端的單位算力成本每年都在大幅下降,而云計算供應商一方面可以降價讓利(亞馬遜以連續降價聞名),一方面也可以給自己留足充分的利潤空間。
再疊加上規模效應、客戶粘性等優點,雲計算終於成爲第三次工業革命後期最好的商業模式,其規模、利潤和護城河足以讓電商、搜索、社交甚至芯片設計和製造都相形見絀。如果算上給雲計算提供GPU的英偉達,雲計算支撐了5家萬億美金科技公司中的4家。
唯一的問題是,當2022年底第四次工業革命啓動,新的“能力傳導”鏈條出現,雲計算能否延續輝煌?
03雲對AI有多重要
毋庸置疑的是,第四次工業革命複用了第三次工業革命相當多的基礎設施。
以最熱門的ChatGPT爲例,我們能夠清晰地觀察到一種生成式智能(尚不能算通用智力)的傳導鏈條:原材料生產(GPU/語料)-能力製造(GPT模型產生智力)-能力投放(微軟Azure雲)-能力使用(網頁/PC/手機端的對話機器人)。
在這個鏈條中,原材料結構出現了結構調整,GPU稱王,語料是新成員;能力製造環節也有了根本性改變,參數高達千億甚至萬億的大模型成爲處理原材料的工具;而在投放和使用環節,則複用了第三次工業革命的鏈條。
鏈條複用不是問題。如前文所述,判斷是否是一場“革命”的關鍵是看「能力」本身。
如果大模型果停留在目前的智力水平上,那麼就只能跟先前熱炒的AlphaGo一樣,算作第三次工業革命的子創新;而如果能夠製造跟人類相仿甚至遠超的智力,那麼第四次工業革命就自然實至名歸。全球頂級科學家對後者信心十足。
顯然,能被“複用”的鏈條獲得了第一批門票:能製造GPU的公司宛如印鈔機,英偉達市值從千億邁向萬億,AMD也反超了Intel;而已經佔據場景心智、且能被AI改造的產品也幾乎躺贏,Office和Adobe全家桶早已喝過幾輪的香檳。
雲計算呢?它還能扮演新一輪「能力」製造和投放的基礎設施嗎?答案大概是肯定的。
從現狀來看,幾乎所有熱門AIGC公司都需要藉助於雲巨頭的力量,比如OpenAI早已委身於微軟Azure雲,Anthropic選擇了AWS,Midjourney是Google的明星客戶,而阿里雲則服務了“中國一半的大模型公司”,包括智譜AI和百川。
造成這一局面的,是深度神經網絡對算力的天量需求。從2012年的AlexNet模型到2017年的AlphaGo Zero,算力消耗足足翻了30萬倍[11]。而ChatGPT橫空出世的背後是,微軟Azure雲上的數萬張A100板卡,成本高達數億美元[12]。
展示GPU的黃仁勳,製造了全球最搶手的工業品
今年9月,紅杉合夥人David Cahn發文替AI產業算了一筆賬:大模型基礎設施建設要消耗2000億美金,大部分錢都要花在算力的購置上。但大模型的應用端每年最多隻能產生750億美元的收入,這中間存在一個高達1250億美元的缺口[9]。
這篇文章很快遭到硅谷創投巨頭a16z的反駁,其特別顧問Guido Appenzeller連發7條推特,直指文章低估了人工智能革命的影響力。雙方雖然對成本計算方式大有爭議,但在一件事上卻出奇的一致——現階段的算力成本還是太高了。
在今年5月,OpenAI創始人阿爾特曼曾表示:“我們太缺GPU了……如果人們減少使用ChatGPT,我們會非常高興[13]。”在2023年H1財報中,微軟也專門更新了一條風險因素:如果無法獲得足夠多的AI芯片,雲計算業務可能會中斷。
洛陽卡貴的結果,就是從一開始就斷絕了企業“自建電廠”的模式。
算力有沒有可能在短時間內大幅提升?模型的消耗會不會驟然下降?或者人類能不能像鋼鐵俠那樣在家裡就可以養一個賈維斯(Javis)?在摩爾定律放緩、AI應用滲透率不足1%的背景下,上述願望恐怕是空中樓閣,難以實現。
這讓雲計算天生地跟AIGC綁定在了一起。雲計算的算力集中、靈活部署、按需付費、成本較低等特點,儘管不能解決全部問題,但幾乎是算力短缺昂貴的背景下的唯一答案。無論是訓練還是推理,大模型都離不開雲。
從某種程度上說,雲計算巨頭在AI浪潮爆發的第一天,就集體拿到了第四次工業革命的門票。
強化學習之父Rich Sutton曾在《苦澀的教訓》(The Bitter Lesson)一文中寫到,人工智能領域的突破性進展,往往來自以大規模計算爲基礎的搜索和學習。換句話說,比起碳基生物的偶發靈感,算力纔是創新的基石[10]。
所以門票既是入場券,也是責任書。全球掀起爭先恐後的大模型競賽,但決定勝負的鑰匙,卻藏在過去互聯網黃金二十年鍛造出的倉庫裡——一張巨大的公共計算網絡是最好的軍備。
在這關鍵一環裡,中美雲計算產業卻悄然分道揚鑣。
呼嘯而至的雲計算浪潮席捲了美國硅谷,成爲亞馬遜、谷歌、微軟等全球頂尖科技巨頭們的第二戰場。在槍林炮雨的爭奪戰裡,美國逐漸形成三足鼎立的格局——於此同時,一個以公共計算爲基礎的算力統一大市場正式形成。
國內的雲計算浪潮始於阿里雲的誕生,自研飛天和5K戰役曾一度讓中國雲計算技術比肩全球。但近十年,技術浪潮卻拐向了另一個方向——公共雲廠商逐漸蟄伏,私有云大行其道,全國的算力格局逐漸走向細碎和孤立。
用一個形象的比喻來說明:私有云像是封閉孤立的小湖小泊,公共雲則是浩瀚無垠的大江大海。從資源利用率來說,公共雲的利用效率天然更高。
純論中美市場存量服務器規模,兩者僅爲10%左右的差距。但據信通院數據,2021年美國的算力有60%以上是以公共雲的方式來提供,歐盟是50%,而中國只有28%。
從資源利用率的角度,公共雲CPU使用率可以高達40%,而私有云的CPU使用率不到5%。這一差異導致中美在算力利用效率上存在巨大差距。
正如文章開頭所講的,王堅把雲計算和GPT比做電和電動機——電動機消耗大量電會帶動用電成本下降,而廉價的電又能孵化出更多電機創新,雲計算和大模型的關係也一樣。
他同時也提到的芝加哥世界博覽會,在理性之外,更帶有命運交響曲的色彩:芝加哥博覽會,讓特斯拉的交流電走出絕望之谷,人類從擁有電,走向了擁有電網,從而擁有了整個電氣時代。
作爲全球前四大雲廠商之中的唯一中國公司,手握門票的阿里雲,它的命運交響曲是怎麼樣的?
04阿里雲的命運交響曲
阿里雲是一羣技術理想主義的瘋子。
這家公司的精神內核,定格在2009年初寫下第一行代碼的北京上地辦公樓。那是一個夏天,工程師就坐在一堆服務器的旁邊幹活,機器散發的熱量超過了空調。王堅的助理,當時跑了整個北京城,給工程師們買來了超大冰塊,大家拿着小桶砸開冰塊,放在工位旁邊,降溫之餘,還能冰鎮一下可樂,感覺又苦又甜。
在這裡,阿里雲開始研發中國唯一自研雲計算操作系統飛天,奠定了中國雲計算的基礎,也讓黃金十年的移動互聯網有了根基。
這也是爲什麼,去年一篇媒體長文《不合時宜的阿里雲》,會讓阿里雲員工、乃至管理層而沉默。這篇文章裡描述了一個大家並不熟悉的阿里雲,陌生到阿里雲自己都認不出自己。這個阿里雲進入了一個以關係爲核心競爭力的市場,對於一個不會喝酒請客應酬的技術男,顯得不合時宜已經是對他最客觀的描述。
如果在那場著名的電流大戰中,特斯拉用愛迪生的方法,是不可能得到勝利的。所以,當阿里雲進入了傳統IT的腹地,學習打上領帶成爲傳統IT人,也無法讓阿里雲取得勝利。
阿里雲抓住過自己的“芝加哥世界博覽會“,上一次是移動互聯網浪潮。中國大多數熱門的APP,多少都跟阿里雲有交集,要麼生長在阿里雲上,要麼用過阿里雲的服務。
呼嘯而至的移動互聯網浪潮,帶來了阿里雲光速增長的五年:2014年阿里雲營收10.96億元,2018年這個數字攀升到213.6億元,四年增長了20倍。
2014年,阿里雲營收規模和全球最大的公共雲服務商亞馬遜AWS差37倍,到了2018年,二者之間的差距縮小到7倍至8倍。
這是新生代和新生代的組合,沒有認知差異,沒有信任危機。
然而,當阿里雲越過移動互聯網的山丘,和亞馬遜、微軟一樣進入到傳統IT的主戰場,新舊交替的戰爭才真正開始。
進入別人的戰場,最需要警惕的事情,是當你變得不像你,戰爭可能就快要輸了。二戰期間,英國曾經試圖用一種理解納粹、成爲納粹的妥協路線,希望求得安穩生存。但最終的勝利,只有在丘吉爾通電全國“我們將戰鬥到底”之後,纔打出了一個和平。
亞馬遜和微軟,在傳統IT的戰場上,堅定選擇成爲自己。當然,除了技術自信,美國宏觀政策也幫了不少忙。
2009年,奧巴馬政府推出Cloud First雲優先政策。2018年,特朗普政府提出Cloud Smart智慧雲政策。同時,美國政府先行先試、關閉政府自建數據中心,率先要求CIA、DoD(國防部)、NSA(國土安全部)、NASA等國家關鍵的部門選擇與亞馬遜、微軟、谷歌等商業雲計算公司合作解決可用性問題。
俄烏戰爭中發揮關鍵作用的作戰系統,就部署在商業雲計算公司的公共雲基礎設施上,採用了最先進的AI技術。
中國傳統IT市場是另一幅面貌。中國市場有一個心理共識,“私有云比公有云安全”,所以習慣把服務器採購回家,再用 “堆人頭”、“做定製”的方法搭建系統。所以,在中國IT市場,少有科技公司,只有IT“包工頭”和“施工隊”。
阿里雲要成爲其中一個嗎?他們曾經可能思考過,實際的動作中也搖擺過。阿里雲曾經立起來的標杆案例中,不乏一些重交付的項目,例如很多輕算力、重系統的項目,需要大量的工程師進場做交付。
早在2021年開始,阿里雲開始漸進式的戰略糾偏。2022年,伴隨着阿里雲在全球前三的競爭中逐漸落後,糾偏再次加大力度, “Back to Basic”的新戰略,構成了阿里雲發展的核心價值觀。
而後,在頗有戲劇性的組織交接中,技術男吳泳銘兼任阿里雲CEO,改良式的糾偏變成大刀闊斧的改革。
甚少在公開場合發聲的吳泳銘,在最新一期阿里巴巴財報會上,用一種很平和、但很鮮明的方法,說清楚了阿里雲的選擇:AI驅動、公共雲優先。
前半句說明,阿里雲也看到了自己手裡抓住的門票,這張門票比移動互聯網黃金十年的門票更加值錢。
後半句代表了判斷和勇氣。這句話顯然會讓政企客戶心生憂慮,這些人應該成爲阿里雲的客戶,但阿里雲顯然選擇了一種具有一定代價的方式,來打開傳統IT向雲轉型的大門。因爲他們面對的是比美國更加複雜的市場,需要付出更大的代價,才能兌換那張命運中的門票。
如果特斯拉還在世,他也許能給阿里雲一些參謀。現在大家可能很難想象,一百多年前,愛迪生爲了讓公衆相信交流電是危險的,曾經運作讓交流電成爲處死殺人犯的工具,並創造了一個詞是“被交流電”來形容被處以電刑。
如果私有云能擁有一個愛迪生的話,也會發明一個“被公共雲”來形容走向公共雲平臺的危險,畢竟也沒有哪家公共雲廠商能保證自己永遠不出故障。
中國還有一個特殊的產物。十年前,美國宇航局NASA和美國IT公司Rackspace合作開發了一個名爲OpenStack的私有云系統,但NASA很快發現私有云無法有效支撐自己龐大的宇宙數據。2013年,NASA宣佈遷移至亞馬遜AWS,並開源了OpenStack。
在美國被放棄的OpenStack,成爲傳統IT廠商的利器。十年間,OpenStack開源基金會被中國廠商佔據,成爲傳統IT的雲計算新裝。從前,傳統IT賣服務器送一個管控軟件,OpenStack開源之後,傳統IT賣服務器送一個開源的私有云系統。
阿里雲剛剛成立的時候,馬雲、馬化騰和李彥宏曾經有過一個知名的對話,阿里雲被質疑是舊瓶裝新酒,而後的移動互聯網證明了這句話是錯的。但中國的私有云用OpenStack來僞裝自己是雲計算,AI熱潮會證明這句話是對的。
雲計算之所以具有這樣寬幅的賽道估值,是因爲一旦計算網絡形成,規模就變成快到看不清的飛輪,甚至無懼週期波動。
高舉公共雲旗幟的亞馬遜、谷歌、微軟,在美國加息週期頂峰的2022年,依舊交上了一份高增長、高利潤的業績報告,可見雲計算穿越週期的能力。
阿里雲抓住AI的門票,就能穿越傳統IT的週期。
從最基礎的層面,阿里雲的AI芯片早有充分的儲備。同時,自研的芯片已經開始在數據中心有廣泛應用。這和微軟在同一節奏點上,納德拉也僅僅是在最近才推出了自研芯片,並宣稱將在明年年初開始使用在自有數據中心。
美國高端AI芯片對中國禁運,讓雲計算在中國市場更加重要。可以預期,未來中國AI芯片供給將更加分散,更需要雲計算向下屏蔽硬件差異,向上整合性能。
在AI技術的發展上,阿里雲在國內率先豎起開源大旗,陸續把“通義”模型家族對外開放,其中最核心的通義千問(Qwen)大模型已經開源了70億參數和140參數版本,在11月的雲棲大會上,吳泳銘宣佈將進一步開源750億參數的版本。
除了開源,阿里雲也上線了模型社區魔搭ModelScope。截止到今年11月,魔搭社區已有 280萬開發者、2300多個模型,累計下載量過億,是中國大模型開源第一社區。
這些都足夠重要,但也沒那麼重要。吳泳銘心中阿里雲唯一的產品,是一張全球性的公共雲計算網絡。這張網的技術壁壘和規模壁壘,纔是阿里雲安身立命之本。
阿里雲2009年成立,一度遭到內部無數質疑,最終頂住壓力,成功地追上了全球雲計算的浪潮,市場份額亞洲第一、全球第三。如今,佇立在雲棲小鎮上的那尊紀念飛天項目的雕塑,上面寫滿了飛天工程師的名字,他們是這家公司精神內核的代名詞。
今天這張網的內核從CPU走向了GPU。十多年前,深度學習科學家偶然發現,把處理圖像的GPU用來跑AI系統,速度驚人。自此,雲計算廠商開始將GPU放到數據中心,用高速網絡連接起來,進一步加快了處理速度。
英偉達曾經依靠收購以色列公司Mellanox來加速網絡技術發展。阿里雲採取了更多的嘗試,例如早於AWS開始研發的神龍芯片,將虛擬化和網絡調度卸載到了硬件中,這可以提高運行效率。同時,阿里雲在彈性RDMA技術的應用是業界規模最大的,對於AI系統中的海量數據搬運有很好的處理能力。
曾經在一次閉門交流中,有一家國內頂尖的大模型創業公司問阿里雲:“你們爲什麼要做通義?”這句話的潛臺詞是,作爲一家算力的電網公司,你們不應該下場做電機。
當時,阿里雲掌門人的回答是:在最基礎的層面,通義驗證了阿里雲是訓練和應用大模型最好的平臺。第二個層面,阿里雲不和大模型公司競爭,以推動AI生態繁榮爲第一目標。
這個答案不會因爲掌門人更迭而改變。在最本質的邏輯上,阿里管理層有高度的共識。
就像今年雲棲大會,slogan回到了2015年的“計算,是爲了無法計算的價值”。2015年,阿里雲開啓了移動互聯網的黃金期,而今年的重啓和迴歸,在兩次革命的交界處,這段話儼然被標註了新的意義。
05尾聲
1925年,一個名叫威利斯·開利(Willis Carrier)的人說服派拉蒙電影公司,在紐約時代廣場新建的裡沃利大劇院安裝了空調系統,爲觀衆提供涼爽的空氣,結果人們瘋狂涌向劇院——看什麼片子不重要,主要是吹吹空調。
電影這個行業在19世紀末出現後,很長一段時間裡並未成爲主流娛樂方式,尤其是夏天,擁擠和悶熱影院阻礙了人們觀影的慾望。但當空調發明後,夏天的影院驟然爆滿,甚至很多美國人第一次吹空調,都是在電影院裡。
空調之所以能迅速鋪滿影院,得益於美國率先打造的普惠的電力公共服務——全球第一的發電量、最大規模的電網和最低的電價,遙遙領先於發明電的歐洲。
1949年的美國高壓輸電網絡
而其回報也是豐厚的:冰箱、洗衣機、空調等產業基本都誕生在美國,電力驅動的製造業更是讓美國成爲二戰時的世界工廠。甚至可以這樣說:美國抓住了電力革命的契機,徹底在經濟和產業上反超了歐洲。
一張完善的能力投放的網絡,是一個國家踏進下個時代的門票。
中國很幸運的一點,是連續抓住了第三次工業革命中後期的浪潮——通信、互聯網、移動終端和雲計算。在2022年全球雲計算市場的前10名中,有4家中國公司,其餘均是美國公司,日本、韓國和諾大的歐洲則沒有選手入圍。
芯片和雲計算,都是能夠跨越第三次和第四次工業革命的核心產業,大洋彼岸的美國仍然處於強勢地位,擺在阿里雲面前的,其實只有半張門票——另外半張的兌現,可能需要拿命來賭一個植根於公共雲之上的統一大市場,那裡AI根深葉茂、SaaS星光閃耀。
這是一場巨人之間的競速,毫無疑問,賽場會在青萍之末,也會在雲海之端。
全文完,感謝您的閱讀。
參考資料
[1] 光電帝國,Jill Jonnes
[2] 第三次浪潮,阿爾文·托夫勒
[3] 阿里雲副總裁:自主可控的雲比拿來主義能走更遠,天下網商
[4] 阿里自研院士,遠川研究所
[5] 在線,王堅
[6] 雲計算,一場無聲的IT權力交接,遠川科技評論
[7]「原神」上線前,米哈遊與阿里雲的八年,Tech星球
[8] Goggle and the wisdom of clouds, NBCNEWS
[9] AI’s $200B Question, DAVID CAHN
[10] The Bitter Lesson, Rich Sutton
[11] 沒人能複製ChatGPT, 遠川研究所
[12] Microsoft Strung Together Tens of Thousands of Chips in a Pricey Supercomputer for OpenAI, Bloomberg
[13] The big bottleneck for AI: a shortage of powerful chips, CNN
[14] 大模型是不是有點太多了?遠川研究所
[15] Big Tech Struggles to Turn AI Hype Into Profits, WSJ
[16] IT 2023, 賽迪顧問
[17] Elon Musk praises China's 'very strong' A.I. credentials, CNBC
作者:戴老闆
編輯:李墨天
視覺設計:疏睿
責任編輯:戴老闆