谷歌量子芯片發佈:量子糾錯取得重要突破

導語

2024年12月10日,谷歌公佈其量子芯片最新進展:Willow 芯片在 RCS(隨機線路採樣)基準測試中建立了史無前例的量子優勢,5分鐘內即可完成當下最先進的超級計算機需要10^25(10億億億)年才能完成的計算——從創世之初到天荒地老也算不完。此外,這款芯片還首次實現了表面碼糾錯的歷史性突破:糾錯後的邏輯量子比特錯誤率低於所有參與糾錯的物理量子比特。

量子芯片是量子計算的基本邏輯單元——量子比特的載體。量子芯片的質量,基本決定了最終量子計算的質量。今年9月谷歌在 Arixiv 貼出“低於表面碼閾值的量子糾錯”這一重要研究進展時,作者撰文介紹了這項工作背後的技術原理和歷史性意義,並指出芯片上的進步是促成這一突破的關鍵,12月9日這篇論文正式發表於 Nature 雜誌。

關鍵詞:量子計算,量子糾錯,量子比特,量子芯片

無邪| 作者

返樸| 來源

四年前,我曾翻譯過一篇發表於Science上的評論文章《》,這個超級大挑戰正是量子糾錯。彼時正值谷歌量子AI團隊 (Google Quantum AI)剛剛完成“量子霸權”的演示,引發全球關注。四年來,全球多個量子計算的頂級團隊在向這一超級挑戰發起衝擊,而谷歌量子AI團隊,無疑是其中的先鋒隊。

最近,谷歌團隊在arXiv上貼出了他們的最新成果:低於表面碼閾值的量子糾錯(Quantum error correction below the surface code threshold) [1]。 他們在一片包含105個量子比特的芯片中實現了碼距爲7(d=7)的表面碼糾錯,同時在一片72量子比特芯片中實現了碼距爲5(d=5)的表面碼糾錯及其實時解碼。兩種情況下均超過糾錯的“盈虧平衡點”,也就是編碼後的邏輯量子比特中的信息存儲壽命,高於所有參與編碼的物理量子比特的壽命。

具體來說,碼距爲7的邏輯量子比特壽命達到了291微秒,而所有參與編碼的量子比特平均壽命爲85微秒,最高119微秒。折算下來,量子糾錯讓量子信息的存儲壽命延長了2.4倍。這是一項非常了不起的工程結果,大幅提升了表面碼量子糾錯的工程可行性,爲未來實現具備實用價值的邏輯量子比特注入了強大的信心。我認爲這一工作的意義,不亞於當年的“量子霸權”,甚至也不亞於2023年中性原子體系中所取得的量子糾錯成果。下面我就嘗試講解一下這一里程碑意義的進展,以及背後的一些技術原理。

左圖爲不同碼距的表面碼糾錯下的邏輯錯誤率,圖中同時引用2023年兩個d=3糾錯碼的數據;橫軸爲糾錯週期數,曲線越平緩,表明錯誤率越低。右圖爲不同碼距錯誤率擬合的錯誤抑制係數Λ,在這裡爲2.14,意味着系統錯誤率不到表面碼糾錯錯誤率閾值的二分之一;隨着碼距的增加,糾錯後錯誤率將以指數形式快速下降。丨圖片來源:參考文獻[1]

現實中的量子比特,或者叫物理量子比特,總是會因爲各種原因而出錯,比如莫名其妙飛過的光子、材料中的某個缺陷,甚至可能是來自遙遠宇宙深處的一束宇宙射線。錯誤會在進行量子計算的過程中累積、傳遞,導致最終的結果不可用。舉例來說,現在的兩比特糾纏門錯誤率在百分之幾到千分之幾的水平:假設量子門的平均錯誤率爲千分之一,那執行5000個量子門,得到正確答案的概率將低於百分之一;執行10000個門,正確的概率將低至十萬分之幾;執行20000個門,這個概率將低於億分之一(這是一個非常粗略的估算,實際的錯誤累積、傳遞和關聯的情況要複雜得多,正確率將以更快的速度衰減)。這將大幅抵消量子計算所能帶來的加速能力,令其威力無法施展。

量子糾錯理論的出現,讓我們重新燃起了希望。利用冗餘的量子比特,以某種方式將它們編碼在一起,可以診斷出哪裡出錯了。如果錯誤足夠“稀疏”,同時又有某些手段及時糾正出錯的比特,我們就能夠實現量子糾錯——得到理想的、不會出錯的量子比特,上面說的錯誤累積也就不會出現,我們總能得到正確的計算結果。

由於這種糾錯編碼的量子比特的信息並不是存儲在某個或某些具體的物理量子比特上,而是以一種糾纏約束的、抽象的形式存在,因此我們將其稱爲“邏輯量子比特”。早在上世紀末,量子糾錯的理論就開始發展:最早的糾錯碼由Shor和Steane獨立提出,接下來Calderbank、Shor和Steane又共同給出了糾錯的一般性理論,即著名的CSS碼,奠定了量子糾錯的基礎。隨後的一個重要進展是穩定子(stabilizer)概念的提出,爲這一領域提供了全新的洞察力,後續很多有用的量子糾錯碼都是基於這一概念發展的,包括著名的表面碼。這也正是谷歌量子AI團隊一直堅持採用的技術。

表面碼屬於更廣義的“拓撲碼”中的一種,這一編碼家族的基本設計理念,是將多個重複的糾錯單元“拼接”起來,這種模塊化的設計方法使得拓撲碼具有良好的可擴展性,符合工程化實現的要求。表面碼只需要近鄰耦合,對錯誤率的閾值要求,或者說“門檻”比較低,儘管其編碼效率不高,但已成爲目前最具工程實現價值的編碼方法之一,特別適合於超導量子芯片。

表面編碼示意圖。圖中黃色標記的是數據比特,藍色標記的是測量比特,綠色標記的是泄漏消除比特。紅色、橙色、黑色框線分別標出了碼距爲3、5、7的編碼範圍,可以很直觀地看出,碼距就是數據比特二維陣列的長度,比如碼距爲3時,數據比特是3x3的陣列。丨圖片來源:參考文獻[1]

表面碼的錯誤率閾值要求大概在百分之一的水平,此次谷歌量子AI團隊所用到的兩塊芯片,單比特門的錯誤率達到了萬分之五的水平,兩比特門達到了千分之四,讀取(探測)錯誤率則達到了千分之八的水平。不過,對於複雜的量子系統,這些單一的指標已經很難描述系統的整體錯誤情況,正如前面說的,真實的錯誤比簡單的錯誤累積要複雜得多。因此,谷歌團隊又引入了一種更適合描述表面碼錯誤情況的“權重-4探測概率”(就當作是另一種表達系統錯誤的“指標”)。對於d=7的體系,這個值是8.7%。這表明團隊在量子芯片的加工方面有了顯著的提升,細節自然不會公開,不過他們提到這歸功於“能隙剪裁(Gap-engineering)”技術的應用。無論如何,對於百比特規模的量子計算芯片而言,這已經代表了頂級水平。

最新的105量子比特芯片性能統計。圖中畫的是不同類型錯誤的累計直方圖。紅色:單比特門錯誤率;黑色:兩比特CZ門錯誤率;黃色:閒置(即不做任何操作)時的錯誤率;藍色:讀取(測量)錯誤率;淺藍:權重-4探測概率。

還有幾個亮點值得提一下,一個是實時解碼技術。表面碼量子糾錯需要不斷地製備穩定子,對輔助量子比特進行測量並重置,然後再重複這一過程。在這個過程中,我們需要對測量結果進行解碼,以保持對錯誤症候的追蹤,並在需要對邏輯量子比特進行操作時及時糾正錯誤。顯然,實時解碼對於實用的容錯量子計算是必要的,不過對解碼器的性能也提出了極爲苛刻的要求。特別是超導量子體系,因爲門執行的速度太快了,上述一個週期將在1微秒左右完成,這意味着需要在同樣的時間內完成解碼。正是這個原因,過往的量子糾錯實驗,一般是將測量數據先存起來,之後用一個離線解碼器處理。這次谷歌團隊首次在d=5的糾錯流程中實現了長時間的連續實時解碼,在一百萬個週期下,解碼器的平均延時爲63微秒,沒有表現出延時隨週期數逐漸增長的情況,表明解碼器能夠跟上糾錯碼的執行節奏——大概是每週期1.1微秒。實時解碼器會帶來一定的性能下降,不過仍能保持一個2倍以上的錯誤抑制係數。團隊並沒有在d=7的糾錯碼中應用實時解碼技術,表明其中的挑戰性是非常大的。未來如何在更大碼距的糾錯碼中實現實時解碼,將一直是一個極富挑戰的技術難題。

另一個亮點是團隊爲了試探系統的錯誤率背景極限,測試了碼距爲29的“重複碼”——它可以看作表面碼的一維情況,它不能同時偵測所有的Pauli錯誤(指錯誤可以表示爲Pauli矩陣的線性組合;舉例來說,量子態繞X或Z軸翻轉了180度),只能偵測比特翻轉或相位翻轉中的一種。測試結果表明,在碼距達到大約25之後,邏輯錯誤率就飽和了,大概爲百億分之一(10-10)的水平。團隊發現這一背景錯誤率來源於大約每小時發生一次的不明來源的關聯錯誤。而在之前的芯片上,這個錯誤率背景是百萬分之一,團隊認爲這是由於大概幾十秒一次的高能事件,也就是宇宙射線轟擊芯片所導致的。因此,這有可能成爲未來量子糾錯技術的一個新課題。

不同碼距重複碼糾錯後的邏輯錯誤率。隨着碼距的增加,錯誤率會逐漸偏離理論預測值;當碼距達到25時,錯誤率達到一個飽和的背景值,約百億分之一。這可能與一些發生率很低(大約1小時一次)的不明原因關聯錯誤有關。丨圖片來源:參考文獻[1]

總而言之,這是一個非常了不起的工作,谷歌再次證明了他們頂級的量子計算工程技術能力。作爲同行,我既感到興奮,也感到憂慮。感到興奮,是因爲這是朝容錯通用量子計算邁出的重要一步,是大量量子工程技術的系統性進步,讓全世界看到了更多的希望。感到憂慮,則是站在國家角度,這有可能意味着在量子計算領域中美之間的差距在無形中拉大。要知道,谷歌僅是美國量子計算的頂級團隊之一,IBM、麻省理工學院等同樣具備類似的能力。在現在的階段,這種能力往往表現在系統工程方面,而非科學問題。我們以谷歌、IBM等團隊作爲技術標杆,卻少有思考他們是如何組織,如何權衡與協調工程技術與科學問題之間的關係,如何讓優秀的工程師與科學家協同攻關,等等。從這篇論文的作者結構來看,這是一項大型的工程合作典範,除了谷歌量子AI團隊,還有DeepMind團隊、馬薩諸塞大學、加州大學聖巴巴拉分校、康涅狄格大學、奧本大學、蘇黎世聯邦理工學院、耶魯大學、麻省理工學院等共13家單位/團隊,參與人數超過200人。這樣的大規模合作,在中國要如何發生呢?如果我們不轉變思維,着力打造工程導向、企業化組織的新型團隊;如果我們遲遲沒有具有大胸懷、擁有頂級號召力的科學家站出來;如果我們的科技激勵機制仍以數文章,拼Nature、Science爲核心導向;如果……或許還有很多如果;再疊加上歐美持續對我們的人才和技術限制,在量子計算工程方面,我們可能很難破局。

我們需要勇氣,我們需要定力,我們更需要團結。我自不堪,唯願有真國士出,領一批優秀的工程師,和各地卓越的科學家,向實用量子計算踔厲前行,走出堅實的中國步伐。

後記:就在稿子編輯的這幾天(9月10日),微軟藍天量子(Microsoft Azure Quantum)團隊首次在催化反應手性分子模擬中,演示了“端到端”的高性能計算(HPC)、量子計算和人工智能 組合[2]。在量 子計算部分,他們採用了C4碼糾錯保護的邏輯量子比特來進行基態製備,而不是物理量子比特。可見量子糾錯將快速成爲量子計算工程技術的主戰場,而我國的量子計算工程能力急需提升以應對這些競爭。

參考文獻

[1] https://doi.org/10.48550/arXiv.2408.13687

[2] https://arxiv.org/pdf/2409.05835

谷歌量子計算路線圖

Google Quantum AI 關於 Willow 芯片的介紹:

https://blog.google/technology/research/google-willow-quantum-chip/

量子信息與量子計算預讀班

量子信息是計算機、信息科學與量子物理相結合而產生的新興交叉學科,將爲人類提供後摩爾時代的技術,爲二十一世紀信息科學的發展提供新的原理和方法。量子信息是現在的前沿方向,我們感受到以量子力學爲基礎的革命是顛覆性的,也將影響到未來的複雜性科學研究。集智俱樂部量子信息與量子計算預讀班主要聚焦在量子計算領域,對量子線路的經典模擬、量子計算與人工智能的交叉、量子模擬、量子噪聲理論與糾錯碼等方面的論文進行研讀與討論。

詳情請見:

1.

2.

3.

4.

5.

6.