在人類探索計算極限的漫長征途中,一場靜默卻深刻的革命正在悄然醞釀。就在數年前,學界普遍認為,真正能破解複雜化學反應、革新材料科學乃至顛覆現代加密體系的“實用容錯量子電腦”,仍需等待數十年之久。然而,隨著技術突飛猛進,這一曾經遙不可及的夢想,正加速向我們走來。幾年前,如果有人提出“量子計算在十年內將迎來實用突破”,這樣的說法很可能會被輕易否定。如今,這種預期正成為新常態。
《自然》雜誌網站報導指出,近年來,全球多個頂尖團隊宣佈在量子糾錯、門操作保真度與系統集成等方面取得決定性進展。越來越多科學家開始相信:百萬比特規模容錯量子電腦將於2035年面世。
大規模容錯證實可行
量子電腦依託的“量子比特”除了可為0或1外,還可同時處於0與1的疊加態,並通過糾纏實現指數級並行運算。但量子態極端脆弱,環境雜訊、熱擾動甚至測量行為本身都會導致資訊迅速退相干。更棘手的是,任何對量子比特的操作都可能引入錯誤。若不加以糾正,這些誤差將在計算過程中不斷累積,最終使結果毫無意義。
於是,“容錯量子計算”成為核心命題。早在上世紀90年代,以色列科學家多麗特·阿哈羅諾夫等人便提出:只要單次操作的錯誤率低於某一閾值,就可通過重複應用量子糾錯技術,將整體錯誤率無限壓縮。
近年來,4個獨立研究團隊證實他們構建的量子系統,基礎錯誤率已跨越這一關鍵閾值。穀歌量子人工智慧實驗室與中國科技大學利用超導電路中電子的集體態編碼量子資訊;量子連續體公司使用的是電磁阱內單個離子內電子的磁取向;量子時代公司則借助光鑷捕獲中性原子,通過其排列表示資訊。這意味著,大規模容錯計算不再是紙上談兵,而是物理上可實現的目標。
這些團隊共同採用並改進了一種核心技術:量子糾錯。其基本思想是,將一個邏輯量子比特承載的資訊分散編碼到多個物理量子比特內。當部分物理量子比特出錯時,系統可識別並修復錯誤。
讓糾錯變得足夠高效
糾錯原理已被驗證,下一個真正的挑戰接踵而至:如何讓糾錯變得足夠高效?
目前主流估算顯示,一個邏輯量子比特往往需要上千個物理量子比特支撐,即所謂“1000∶1”的冗餘比例。然而,當今最大量子處理器也不過數千比特規模。若要運行大整數因式分解等標誌性任務,早期估計甚至需要數十億比特,這顯然遠超當前工程能力。
轉機出現在演算法與架構創新中。近年來,研究人員發現,通過優化量子門序列的組織方式,可顯著減少資源消耗。2024年,穀歌科學家克雷格·吉德尼提出一種新型三維拓撲編排方法,將因式分解大數所需的量子比特數從2000萬個銳減至100萬個,降幅達兩個數量級。
與此同時,糾錯編碼本身也在進化。IBM研發的新一代表面碼,有望將冗餘比壓縮至100∶1;量子時代公司也憑藉其中性原子平臺的獨特優勢——量子比特可自由移動並按需糾纏,瞄準同一目標。
在量子門保真度上,一些研究團隊也取得了顯著突破。
2025年6月,英國牛津大學莫莉·史密斯團隊報告了高達99.999985%的單量子比特門保真度,較此前紀錄提升10倍。10月,牛津離子公司宣佈,其雙量子比特門操作保真度達到99.99%;以色列量子電晶體公司也於12月宣佈,實現99.9988%的雙量子比特門保真度。
延長量子比特相干時間
如果說糾錯是“軟體防護”,那麼延長量子比特的相干時間,則是提升“硬體耐力”的關鍵。
美國普林斯頓大學團隊去年在《自然》發表論文,宣佈通過純化基底材料等一系列改進,他們將超導量子比特壽命從0.1毫秒提升至1.68毫秒。
研究人員表示,若能將壽命延長至10毫秒,糾錯所需的資源開銷可再降兩到三倍。這意味著,用3萬到5萬個量子比特可完成大整數質因數分解等任務,已不再是遙不可及的目標。這一數量級,正好接近企業希望在一臺單一的超低溫製冷裝置中容納的量子比特規模。
傳統系統中,每個量子比特需通過導線連接至室溫控制器,造成佈線擁堵與信號衰減。但下一代可在極低溫環境下工作的電子學器件,理論上可被直接放置在製冷設備最冷的區域,並與量子晶片高度集成。穀歌透露,其最新低溫平臺已支持約1萬個比特集成,如果這一設想成為現實,未來版本有望容納數十萬個量子比特。
幾年前,如果有人提出“量子計算在十年內將迎來實用突破”,這樣的說法很可能會被輕易否定。如今,這種預期正成為新常態。中國科技大學陸朝陽教授預測,到2035年前後,人們將迎來百萬比特規模、完全容錯、具備實用價值的量子電腦。
來源:中國科技日報