谷歌研究人员发现了一种新技术,这可能最终使量子计算在现实生活中变得实用,利用人工智能解决科学上最持久的挑战之一:更稳定的状态。
在发表在《自然》上的研究论文中,谷歌Deepmind的科学家解释说,他们的新AI系统AlphaQubit在纠正长期困扰量子计算机的持续错误方面表现出色。
“量子计算机有潜力彻底改变药物发现、材料设计和基础物理学——前提是我们能让它们可靠地工作,”谷歌的公告中写道。但没有什么是完美的:量子系统极其脆弱。即使是最轻微的环境干扰——来自热量、振动、电磁场,甚至宇宙射线——都可能破坏它们脆弱的量子状态,导致错误,使计算不可靠。
一篇三月的研究论文强调了这一挑战:量子计算机在实际使用中需要的错误率仅为每万亿次操作中的一次(10^-12)。然而,目前的硬件每次操作的错误率在10^-3到10^-2之间,使得错误纠正至关重要。
“某些问题,传统计算机需要数十亿年才能解决,而量子计算机只需几小时,”谷歌表示。“然而,这些新处理器比传统处理器更容易受到噪声的影响。”
“如果我们想让量子计算机更可靠,特别是在大规模应用时,我们需要准确识别和纠正这些错误。”
谷歌的新AI系统AlphaQubit希望解决这个问题。该AI系统采用了一种复杂的神经网络架构,在识别和纠正量子错误方面表现出前所未有的准确性,在大规模实验中显示出比以往最佳方法少6%的错误,比传统技术少30%的错误。
它还在17个量子比特到241个量子比特的量子系统中保持了高准确性——这表明该方法可以扩展到实际量子计算所需的更大系统。
在幕后
AlphaQubit采用两阶段的方法来实现其高准确性。
该系统首先在模拟的量子噪声数据上进行训练,学习量子错误的一般模式,然后使用有限的实验数据适应真实的量子硬件。
这种方法使AlphaQubit能够处理复杂的现实世界量子噪声效应,包括量子比特之间的串扰、泄漏(当量子比特退出其计算状态时)以及不同类型错误之间的微妙相关性。
但不要过于兴奋;你不会很快在车库里拥有一台量子计算机。
尽管其准确性,AlphaQubit在实际应用之前仍面临重大障碍。“快速超导量子处理器中的每个一致性检查每秒要测量一百万次,”研究人员指出。“虽然AlphaQubit在准确识别错误方面表现出色,但在超导处理器中实时纠正错误仍然太慢。”
“在更大的编码距离上进行训练更具挑战性,因为示例更复杂,并且在更大距离上的样本效率似乎较低,”Deepmind的一位发言人告诉Decrypt,“这很重要,因为错误率与编码距离呈指数级增长,因此我们预计需要解决更大的距离,以获得在大型深度量子电路上进行容错计算所需的超低错误率。”
研究人员正将速度优化、可扩展性和集成作为未来发展的关键领域。
人工智能和量子计算形成了一种协同关系,增强了彼此的潜力。“我们预计AI/ML和量子计算将继续作为计算的互补方法。AI可以应用于其他领域,以支持容错量子计算机的发展,例如校准和编译或算法设计,”发言人告诉Decrypt,“与此同时,人们正在研究量子机器学习在量子数据上的应用,以及更具推测性的,针对经典数据的量子机器学习算法。
这种融合可能代表了计算科学的一个关键转折点。随着量子计算机通过AI辅助的错误纠正变得更加可靠,它们反过来又可以帮助开发更复杂的AI系统,形成一个强大的技术进步反馈循环。
实用量子计算的时代,长期以来被承诺但从未实现,可能终于更近了——尽管还不够近,不用担心赛博格末日的到来。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。