在量子计算领域,量子比特的错误率控制一直是一个重大挑战。量子比特极其脆弱,即使很小的环境干扰也会导致量子信息丢失。为了解决这个问题,科学家们提出了量子纠错编码的技术——将多个物理量子比特组合成一个逻辑量子比特,通过冗余编码来抵抗错误。
尽管在这一技术的帮助下,当前最先进的量子处理器能够实现高达 99.9% 的门操作保真度,但仍远未达到量子算法所需的 10⁻¹⁰ 量级的误差率。因此,如何通过量子误差纠正技术提升计算可靠性,成为学界和工业界的核心挑战。
现在,Google量子人工智能团队在其最新一代超导处理器 Willow 上取得了重要突破。他们成功实现了一种逻辑误差低于表面码阈值的量子误差纠正方案,让纠错量子计算 30 年来“低于阈值”的目标成为现实。
相关成果已经发布于Nature[1]。
图丨相关论文(来源:Nature)
1995 年 MIT 教授彼得·肖尔(Peter Shor)首次提出了量子纠错的概念,他设计了第一个量子纠错码——肖尔码(Shor Code)[2]。这一突破性的研究首次证明了量子信息尽管极其脆弱,却可以通过编码分布在多个物理量子比特上,以实现错误的检测和纠正。肖尔码通过保护一个量子比特免受相位和振幅翻转错误的影响,为量子计算的可行性提供了理论支撑。
图丨Peter Shor(来源:MIT)
在肖尔码之后,稳定子码和表面码等更复杂的纠错方案相继被提出。其中,表面码(Surface Code)因其良好的错误抑制性能和对硬件要求的相对可实现性,成为容错量子计算的核心技术。
表面码(surface code)通过将量子比特排列成 d×d 的方形阵列,理论上,阵列越大,逻辑量子比特就越稳定,性能也会越好。但实际上,扩大阵列也会带来更多出错机会。如果物理量子比特的错误率过高,这些额外错误会压倒纠错能力,使得扩大阵列反而会降低处理器性能。
只有当物理量子比特的错误率足够低时,量子纠错才能弥补这些额外错误。这个临界错误率就被称为量子纠错门槛。
而Google 团队在 Willow 上首次实现了这一点。在 Willow 的错误纠正实验中,当将阵列从 3×3 扩展到 5×5 再到 7×7 时,每次扩展都能将编码错误率降低 2.14 倍。这一结果证实了量子纠错理论的指数级错误抑制效果。
更重要的是,7×7 阵列实现的逻辑量子比特展现出了超越物理极限的性能——其寿命达到 291±6 微秒,是其最佳物理量子比特寿命(119±13微秒)的 2.4 倍。这标志着量子纠错首次实现了“超越平衡点”(beyond breakeven)的里程碑。
(来源:Google)
由此,Willow得以实现上述出色的逻辑误差抑制能力。
除了量子纠错性能外,Willow 处理器在随机线路采样(RCS)基准测试上也取得了惊人成果。它在不到 5 分钟内完成了一项运算,这项运算即使在当今最快的超级计算机 Frontier 上运行也需要 10 亿亿亿年(10²⁵年)。
(来源:Google)
此外,随着系统规模扩大,解码延迟也会增加。目前在距离为 5 的码上测得的 50-100 微秒解码延迟预计会随着码距增加而增长。这可能会影响未来大规模量子计算机的运行速度,需要进一步优化。
尽管如此,Willow 处理器的未来依然值得期待。在过去一年中,其编码性能提升了 20 倍。如果能保持这种指数级的进步,实用的大规模量子计算机或许比预期更快到来。
参考资料:
1.https://www.nature.com/articles/s41586-024-08449-y
2.https://journals.aps.org/pra/abstract/10.1103/PhysRevA.52.R2493
3.https://blog.google/technology/research/google-willow-quantum-chip/
4.https://research.google/blog/making-quantum-error-correction-work/