中科院用普通电脑追上量子优越性,几小时搞定原本要一万年的计算

ACM计算奖得主Scott Aaronson也认同这个结论

衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

谷歌量子计算,曾声称能在200秒内搞定普通超算10000年完成的任务。

没想到,这个“量子优越性”现在被中科院理论物理所的研究人员打破了:

他们用普通CPU,在几小时内完成了原本被认为要花1万年的计算,并认为目前的量子计算机完全是可以被超越的。

ACM计算奖得主Scott Aaronson也认同这个结论:

我认为他们是对的,如果有一台足够强大的超级计算机,他们可以在几秒钟内模拟这个任务。

最近Science上刊登了关于这事儿的文章,一起来看看究竟发生了什么。

无法超越?优化给你看

中国科学院理论物理研究所的张潘团队,发表了一篇名为《Sycamore 量子优势电路采样问题的求解》的论文,展示了击败谷歌量子计算机Sycamore的全过程。

针对谷歌“量子优越性”的任务,文中提出一种新的模拟方法,即经典算法张量网络方法

要说它怎么个好法,就是可以使用许多的GPU并行计算。

利用512个GPU的计算集群,团队计算了9万亿个数字字符串中的100万个输出模式(即53量子比特、20循环的量子线路采样),这一计算过程耗费15个小时。

如果把这算法用在超级计算机上,几十秒就可以完成相同任务。

这个任务如果给Sycamore做,用时约在200秒内;超级计算机则需要10000年才能完成(谷歌是这么说的)

△谷歌量子计算芯片,就一张邮票大小

团队还秉承着一个观点,那就是和Sycamore一样,不需要过分追求精确。

团队用张量来表示量子比特属性之间的关系,把Sycamore量子比特的相互作用描述为3D张量网络。

所以,他们在3D张量网络上“钻孔挖洞”,削减一些连接来简化关系,减小计算复杂度,以准确性换速度。这种收缩张量网络的方法,让模拟量子芯片成为可能。

数据证明,完成任务过程中,计算速度提高了256倍,且保真度保持在0.37%,高于Sycamore的0.2%。

种种数据摆在眼前,“量子优越性”突然就没那么香了。

“量子优越性”擂台,搭起来

面对这个结果,谷歌量子AI首席研究员Sergio Boixo回应认为,这只是在赛道上短暂超车,优势不会持续太久的。

从量子计算时代刚开启时,谷歌就没否定过经典算法会持续改进完善这一点。

不过,谷歌也表示:

我们认为这种经典算法无法在 2022 年以后跟上量子电路的步伐。

毕竟Sycamore诞生时,超级计算机只能对它所执行的任务望而却步。

创造量子计算机出来,就是执行那些计算量会“淹没”普通计算机的任务。

对于量子计算机来说,所有任务的潜在解决方案都可以被看做是同时在量子比特之间晃动的量子波。

这些量子波互相干扰,错误答案会相互抵消,正确的输出就会“弹”出来。

换句说话,这种干扰让量子计算机能够拆分需要计算的大量数据。

拿Sycamore来说,它把量子比特设置为0、1或者0和1的任意组合,这让它能够同时处理大量输入。

Sycamore是一台53量子比特的量子计算机,它的量子电路是由超导金属制成的微型谐振电路,能编码从0到253(约9万亿)间的任何数字,甚至可以一次编码所有数字。

谷歌表示,Sycamore可以打败IBM开发的超级计算机Summit。Summit拥有9216个CPU和27648个GPU。

IBM当即给予反驳,说谷歌所谓相同任务超级计算机需要用时的“10000年”,只是在特定算法上。

一旦算法优化,只需约2.5天,Summit就搞得定相同任务。

关于“量子优越性”,业界、学界的争论从未停止。

张潘团队的这篇论文,就是用实例证明了“量子优越性”现阶段还是可以被普通计算机打败的。

One More Thing

张潘团队的研究成果凸显了量子计算机与传统计算机相比存在的缺陷,这对更领先的“量子优越性”实验提出了更高要求。

张潘提出,应该找到一些可以落地的实际应用来展现量子电路的优势。

当然,普通计算机打败“量子优越性”并不意味着量子电路的式微。

哪怕是与超级计算机相比,Sycamore的操作步骤和所需功率都要少得多。就连张潘自己都说,如果Sycamore保真度再高一点,团队的模拟就比不过了~

参考文章:
[1]https://www.science.org/content/article/ordinary-computers-can-beat-google-s-quantum-computer-after-all?s=31
[2]https://www.science.org/doi/10.1126/science.365.6460.1364
[3]https://arxiv.org/pdf/2111.03011.pdf

版权所有,未经授权不得以任何形式转载及使用,违者必究。