本文发表于《大众科学》的前博客网络,反映了作者的观点,不一定反映《大众科学》的观点
到目前为止,大多数人都听说过量子计算是一项革命性技术,它利用量子力学的奇异特性来比普通计算机更快地解决某些问题。这些问题范围从数学世界到零售业务,再到物理学和金融学。如果我们能正确掌握量子技术,其好处将提升整个经济并增强美国的竞争力。
量子计算的前景在 20 世纪 80 年代首次被认识到,但至今仍未实现。量子计算机极其难以设计、制造和编程。因此,它们受到噪声、故障和量子相干性丧失等形式的错误的严重影响,量子相干性对其运行至关重要,但在任何重要的程序有机会运行完成之前就会瓦解。
这种相干性丧失(称为退相干)是由振动、温度波动、电磁波以及与外部环境的其他相互作用引起的,最终会破坏计算机的奇异量子特性。鉴于目前退相干和其他错误的普遍存在,当今的量子计算机不太可能为即使是适度执行时间的程序返回正确的答案。
关于支持科学新闻业
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻业 订阅。通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和想法的有影响力的故事的未来。
虽然竞争技术和竞争架构正在解决这些问题,但没有现有的硬件平台可以维持相干性并提供大规模计算所需的强大纠错能力。突破可能还需要几年时间。
与此同时,价值数十亿美元的问题是,我们如何从一台在完成典型计算之前变得无法使用且不可靠的计算机中获得有用的结果?
答案来自各个领域的深入研究,工业界、学术界和国家实验室的研究人员正在寻求各种减少错误的方法。一种方法是根据各种噪声水平的计算结果来猜测无错误计算的样子。另一种完全不同的方法是混合量子-经典算法,它仅在量子计算机上运行程序中性能最关键的部分,而程序的其余部分在更强大的经典计算机上运行。这些策略和其他策略已被证明可用于处理当今量子计算机的嘈杂环境。
虽然经典计算机也受到各种错误源的影响,但这些错误可以通过适量的额外存储和逻辑来纠正。量子纠错方案确实存在,但会消耗大量的量子比特(量子位),以至于只剩下相对较少的量子比特用于实际计算。这会将计算任务的大小缩小到缺陷硬件上可以运行的任务的一小部分。
为了说明量子比特消耗的重要性,当今最先进的基于门电路的量子计算机(使用类似于您正在阅读本文的计算机、智能手机或平板电脑中数字电路的逻辑门)仅拥有 50 个量子比特。这只是您的设备可用的经典比特数量的一小部分,通常是数千亿。
驯服缺陷以完成任务
问题在于,量子力学挑战了我们的直觉。因此,我们努力找出执行有意义的任务的最佳算法。为了帮助克服这些问题,我们在洛斯阿拉莫斯国家实验室的团队正在开发一种方法,用于发明和优化在嘈杂的量子计算机上执行有用任务的算法。
算法是告诉计算机执行某些操作的操作列表,类似于烹饪食谱。与经典算法相比,量子算法最好保持尽可能短,而且我们发现,最好针对给定硬件设备的特定缺陷和噪声状态进行定制。这使得算法能够在有限的时间范围内执行更多处理步骤,然后在退相干将正确结果的可能性降低到接近于零之前完成。
在我们洛斯阿拉莫斯实验室在实验室定向研究和开发计划资助下进行的量子计算跨学科工作中,我们正在努力实现算法有效运行的关键一步。主要思想是减少门电路的数量,以便在退相干和其他错误源有机会将成功的可能性降低到无法接受的程度之前完成执行。
我们使用机器学习将量子电路翻译或编译成针对特定量子计算机的最佳短等效电路。直到最近,我们还在经典计算机上使用机器学习方法来搜索量子程序的缩短版本。现在,在最近的一项突破中,我们设计了一种方法,该方法使用当前可用的量子计算机来编译自己的量子算法。这将避免在经典计算机上模拟量子动力学所需的大量计算开销。
由于这种方法产生的算法比最先进的算法更短,因此它们相应地减少了噪声的影响。这种机器学习方法还可以补偿特定于算法和硬件平台的错误。例如,它可能会发现一个量子比特比另一个量子比特噪声更小,因此该算法优先使用更好的量子比特。在这种情况下,机器学习会创建一个通用算法,以使用最少的计算资源和最少的逻辑门来计算该计算机上的分配任务。经过优化后,该算法可以运行更长时间。
这种方法已在云端向公众开放的量子计算机上的有限环境中奏效,它还利用了量子计算机在未来设想的更大规模量子计算机上扩展大型问题算法方面的卓越能力。
使用量子算法的新工作将为专家和非专家提供在量子计算机上执行计算的工具。应用程序开发人员可以开始利用量子计算在加速执行速度方面的潜力,使其超越传统计算的限制。这些进步可能会使我们所有人更接近拥有强大、可靠的大规模量子计算机,以解决复杂的现实世界问题,这些问题甚至会让最快的经典计算机也束手无策。