12月9日,一项发表于《自然》的新研究表示,谷歌的研究人员开发的一款新芯片首次实现了“低于阈值”的量子计算。这是探索构建足够精确且实用的量子计算机的一个重要里程碑。
与普通计算机的比特一样,量子计算机可以将信息编码为0或1的状态,也可以采用多个0和1的无限可能组合。然而,谷歌量子硬件部门负责人、物理学家Julian Kelly指出,这些量子信息状态是出了名的脆弱。他解释说,要让量子计算机执行有用的计算,“你需要量子信息,并且保护它免受环境的影响,以及我们对其进行操作时的自身影响”。
没有这种保护,量子计算将无法实现。为实现这种保护,理论家们从1995年开始开发巧妙的方案,将一个量子比特的信息分布到多个“物理”量子比特上。由此产生的“逻辑量子比特”至少在理论上具有抗噪能力。要使这种称为量子纠错的技术在实践中发挥作用,就必须证明这种将信息分散到多个量子比特上的方法可以有效降低错误率。
过去几年,包括IBM和亚马逊AWS在内的多家公司和学术团体已经证明,纠错可以略微提高准确性2,3,4。2023年年初,谷歌发布了一项基于“悬铃木”量子处理器的研究成果,该处理器使用了49个量子比特,每个物理量子比特在超导电路中进行编码。
谷歌的新芯片名为“Willow”,是该技术的改进版本,其规模更大,拥有 105 个物理量子比特。它是在谷歌于2021年在加利福尼亚州圣巴巴拉的量子计算园区建造的制造实验室中开发的。
谷歌量子计算部门负责人Hartmut Neven表示,当第一次介绍Willow 的强大功能时,研究人员展示了它可以在约5分钟内完成一项任务,而世界上最大的超级计算机预估需要1025年才能完成。这是展示量子计算机相较于经典计算机优势竞赛中的最新攻势。
谷歌量子计算部门首席运营官Charina Chou指出,这项成就意味着到本世纪末,量子计算机可以实现甚至最强大的超级计算机都无法实现的科学发现。“这就是我们建造这些东西的初衷。”谷歌研究科学家迈克尔·纽曼Michael Newman说。
此外,通过在Willow内部创建逻辑量子比特,谷歌团队已经证明,每次逻辑量子比特大小的连续增加,都会将误差率降低一半。
最大的逻辑量子比特的寿命为 291 微秒,比任何物理量子比特的寿命长 2.4 倍。荷兰代尔夫特理工大学量子纠错专家Barbara Terhal表示:“这确实非常令人信服地证明了误差抑制效果随着网格尺寸的增大而呈指数级提高。谷歌是第一个实现这一目标的团队。”
Kelly指出,团队的研究结果还表明,这种改进速度是可持续的,并且将使未来的量子芯片达到每1000万步出现一次错误的概率。研究人员普遍认为,这种精度水平对于将量子计算机商业化至关重要。“纠错是量子计算的最终目标。”他说,“这是每个人都想使用的量子计算机。”
Newman表示,谷歌预估,要实现如此低的错误率,每个逻辑量子比特需要由大约1千个物理量子比特组成——尽管进一步改进纠错技术可以将这一开销降低至200个量子比特。
Terhal表示,挑战依然存在。除了构建强大的逻辑量子比特,研究人员还需要将许多逻辑量子比特联网在一起,以便它们能够共享和交换量子态。
美国加州理工学院理论物理学家John Preskill参与了量子纠错理论的开发。他说,证明纠错方案有助于保存量子比特中的信息是重要的一步,但纠正计算错误将更为重要。“我们希望进行受保护的量子比特操作,而不仅仅是内存。”Preskill说。
相关论文信息:
https://doi.org/10.1038/s41586-024-08449-y
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。