中国科学家成功制备目前规模最大的光量子计算芯片 谷歌迎来对手!

来源:观察者网

2018-05-14 16:09

【观察者网TMT报道】5月14日,据新华社报道,中国研究人员制备出大规模光量子芯片,并成功进行了一种重要的模拟量子计算演示。据该团队称,这是目前世界上最大规模的光量子计算芯片

在最新一期美国《科学进展》杂志上的研究显示,上海交通大学金贤敏团队通过“飞秒极光直写”技术制备出节点数达49×49的光量子计算芯片。

研究人员利用这个芯片演示了模拟量子计算的一种算法内核“量子随机行走”。金贤敏介绍,当这种量子演化体系制备取得足够大且可灵活设计其结构时,可以实现多种算法和计算任务,表现远优于传统计算机。

2017年5月3日,中国科学技术大学、中国科学院院士潘建伟在上海宣布成功构建光量子计算机,并演示了量子计算能力。据介绍,这次实验是由中国科研团队完成的世界首台超越早期经典计算机的光量子计算机,也是世界上纠缠数目最多(10个)的超导量子比特处理器。

量子纠缠是一种量子叠加现象,一个量子比特的行为通过纠缠能够瞬间影响到另一个量子比特。在经典计算机的传统芯片晶体管中,二进制0和1表示信息。在量子力学的世界中,依据量子的物理性质,它呈现叠加状态,可以同时表示0和1。处于叠加态的量子比特能够以一种叫做量子纠缠的现象相互联系。

在量子通信领域,除了中国科研界对其大量投入,美国和欧洲的科研界也对量子计算有极大兴趣。

谷歌、IBM和微软等公司都已发布各自的量子计算机研究计划。2018年3月谷歌曾宣布推出72个量子比特的通用量子计算机Bristlecone,实现了1%的低错误率,与9个量子比特的量子计算机持平。IBM也在3月曝光了其50个量子比特量子原型机内部构造。

对于量子计算机来说,快速并不是唯一的衡量标准,一台很快但错误率很高的量子计算机还不如经典的超级计算机。

谷歌表示,量子计算机的最低错误率必须在1%以内,并且有接近100个量子比特的规模。当我们可以实现几十乃至几百万量子比特0.1-1%的错误率时,量子计算机将开始真正高效解决实际问题。

尽管量子计算机理论上有众多突出优势,但在实现大规模应用前还需解决不少技术难题。例如,怎样提高光量子芯片集成复杂度、增强量子信息处理与计算能力。

责任编辑:程北墨
量子计算机 量子通信 量子纠缠
观察者APP,更好阅读体验

“准备好为同志们挺身而出了吗?”“YES!”

哥大挺巴抗议持续,美众议长称国民警卫队应适时出动

中央金融办:金融政策的收和放不能太急,防止大起大落

安理会表决:俄方否决,中方反击美方指责

“6年增加两倍”,美军高官又炒:中国速度“惊人”