摘要:自20世纪70年代以来,随着量子计算理念的提出,科学家针对量子计算进行了大量的理论推理和测试验证,并将其视为未来技术进步的基石。目前,通用量子计算机理论框架、基于量子理念的经典计算模型改进等方面研究已取得明显进步,众多科研工作者初步尝试将理论成果转化为实际应用,落地量子技术,从而实现“第二次量子革命”。其中,量子计算因其并行处理能力已被证明一旦达到一定规模,其效率将远超传统计算机,对众多经典算法领域如密码学、程序语言、机器学习和人工智能等产生深远的影响,极有可能引发社会、经济、军事等领域的一次重大技术革命。本文从科普的角度介绍了量子计算的背景及原理,国内外进展对比,并基于发展现状对未来作了展望。
一、引言
“量子力学”从本身概念而言是一个高深的科技研究领域,但其具体应用却与日常生活息息相关,例如,晶体管、激光蚀刻等电脑和手机必备的零件与技术都是在量子力学理论指导下被设计、生产并形成成熟产业,从而彻底改变人们的生活,即所谓的“第一次量子革命”。随着信息技术的发展,如何开发新的量子技术是各个国家及联合体,包括中国、欧盟、美国、日本、英国、加拿大等科学团体的主要目标之一。力图将理论成果转化为应用并引领“第二次量子革命”,而其需要提升或实现的本质研究工作即为“量子计算”。
高性能手机和计算机已成为常见装备,其中的核心元件是作为处理器的芯片。众所周知,芯片上的集成电路遵守着摩尔定律,即每18-24个月在性能或晶体管数量上实现翻倍。电子计算机前50年的发展情况与摩尔定律的预测十分接近,但随着电子元件集成工艺的技术和成本越来越高,集成电路的发展进度已愈发显出疲态。另外,当电子元件的尺寸达到纳米级别时,量子效应将越来越明显,电子的隧穿效应会导致回路失灵。科学家预测,到2025年摩尔定律将不再奏效,因此,研究者将目光逐渐投向了量子计算机。
二、量子计算的优势和面临的主要问题
量子计算的优势主要体现在两方面,即功耗保持和运行效率。在功耗保持方面,传统计算机的运行过程受到温度、湿度等外界因素制约,散热不佳将极大的降低运算速度,而计算过程中的不可逆操作将带来极大的能耗,从而造成发热。与经典计算机的比特位和逻辑门类似,量子计算机对量子比特的操作通过量子门实现。其区别在于,经典计算机进行门电路操作后会产生能量耗散,例如0和1的“与运算”是个不可逆且能量耗散的过程,但量子计算则通过幺正变换实现可逆计算,能从根本上解决能耗问题。在运行效率方面,经典计算机存储过程中的单个存储位仅处理0或1单个数,而量子存储可同时保留0和1两个数(通过电子自旋的上和下实现);在两个存储位时,经典计算机仍然只能存单个数,但量子计算机可以同时存四个数;推广至N个存储位的情况下,经典计算机还是仅存一个数,但量子计算机可以同时存放2N个数据。因此,理论上量子计算机的存储数据能力是经典计算机的2N倍。在计算角度,经典计算机采用的是串性运算模式,每次操作将一个数转变成为另一个数;而量子计算机通过一次操作可以把2N个数据转变成新2N个数据,即并行运算,其理论运行效率存有巨大的提升空间。
鉴于量子计算强大的运算、存储和低功耗优势,在物理上实现量子计算机硬件、在技术上研发实用性的量子算法已成为各国各联盟的工作重点。科研工作者的初始设想是从传统电路的逻辑出发,只要能找到一个易于测量的双态体系(对应于0和1),如光子的偏振方向,电子、原子核的自旋方向或原子、离子本身任意两个离散的能级构成的二能级系统,将它们组成大规模的阵列,再通过光、电、磁场等干涉方法组成一系列“量子逻辑门”对其进行操控,就可以构建出初步的量子计算机。然而遗憾的是,其实施过程却面临着两个主要的问题,首先是原子尺度的粒子很容易受到环境中噪声的干扰,从而失去量子效应(称为退相干,即不再具备双态体系)进而导致量子比特发生错误,因此必须将环境温度控制在-273K左右(与绝对零度相差不到一度)。其次,对量子比特的读取过程也会破坏量子效应,称为测量引起的“坍塌效应”,即无法直接读取一个量子位的状态,只能通过测量与其纠缠的其他粒子来推测出它的状态。因此,为了纠错和读取,每一个逻辑比特都需要5000-10000个物理比特来进行辅助,极大地限制了有效比特比的提升速度。
虽然存在着巨大的技术鸿沟,但量子计算无穷的潜力仍趋使着无数科研工作者以及各大科技公司竞相争夺。到目前为止,备受人们期待能实现量子计算的物理系统有离子阱系统、超导约瑟夫森结系统、金刚石自旋系统、半导体量子点系统以及我国潘建伟教授研发的光子系统等。它们各自存在不同的优缺点,比如:离子阱系统“干净”(相干时间长)且精密(量子态制备保真度高),但其所需操控时间长且大规模集成困难;超导量子系统对量子比特和量子逻辑门的操控可达到纳秒(十亿分之一秒)级别,但抗噪声能力不能令人满意。种种诸如此类的困难,使得多年过去人们也只能在实验室内做到数十个量子比特的量子计算原型机。但是,学术界的一个公认思想是,量子计算机终有一天将远远超越经典计算机。美国加州理工学院的John Preskill教授将这个愿景描述为“量子霸权”(quantum supremacy,这个翻译存在部分学者过分解读的可能,个人认为更应该翻译为“量子优势”):“如果一个计算任务可以被现存的量子器件所解决,但是这一计算任务没法在一个合理的时间内使用任何一个现存的超级经典计算机运用任何一个已知的算法来完成,可以认为实现了量子霸权。”
三、国内外主要研究进展
1. 国内研究进展
我国在量子计算领域起步虽然落后于欧美国家,但是在国家支持下,还是取得了国际一流的研究成果。当前,由于物理、数学等基础较为薄弱,因此在关键技术突破等方面与欧美仍存在一定差距。
首先,从战略上讲,我国发布《国家中长期科学和技术发展规划纲要(2006-2020)》,将“量子调控研究”列为四个重大科学研究计划之一,提供持续性稳定性的国家层面支持,并且相关领域的专家已经开展了相应的研究,取得了不菲的研究成果。中国科技大学的郭光灿院士长期从事半导体量子芯片研究并取得了重大突破,实现了3个量子比特逻辑门电路,在操控比特数量和量子相干时间等方面接近国际先进水平。同属中国科技大学的潘建伟院士在量子保密通信和量子物理方面也取得了卓越成果,例如,潘院士首次在国际上使用光晶格技术生成并观测了了约600对呈现纠缠状态的超冷量子比特。
其次,我国量子计算研究基础薄弱,经费和人力投入与欧美国家相比远远不足。虽然我国在量子计算领域投入了相当的人力物力,然而,实用化的量子计算机的应用是一个复杂的系统工程,既要对量子物理基础学科进行原理性创新,又要进行量子计算所需的普适材料、制程、架构和控制软件等实现创新。当前,由于我国精密工业领域发展的限制,造成我国在传统计算和量子计算工艺技术上基础薄弱,从而导致核心电子元器件、高端计算芯片、操作系统和高级计算软件、增材 ……此处隐藏704个字……机是商业化版本,其纠缠态量子相干时间较长,稳定性得到极大的增强,平均相干时间提升到90微秒,并具备柔性的扩展设计,可以增加量子位,基于相同技术的50量子位的量子计算机能够达到更加强大的性能,帮助IBM构建量子霸权。美国哈佛大学的卢金教授,格雷纳教授和麻省理工学院的武才蒂奇教授则在量子模拟方面取得较大进展,他们通过激光捕捉到超冷铷原子,并利用磁场将冷原子进行排序,最终研发出一种51量子位的模拟器,可以实现特定的量子计算。2019年10月,在《Nature》杂志上,谷歌发表了一篇标题为《Quantum supremacy using a programmable superconducting processor》(用可编程超导处理器实现的量子霸权)的论文,向世人宣告谷歌突破性成果,助其率先实现量子霸权。论文提到,谷歌团队研发出了一款由54个量子比特组成的量子处理器,并命名为“Sycamore”(译为:西克莫)。在团队设计的专属任务——对量子电路产生的随机数字进行采样的测试中,Sycamore约200秒的时间内从量子电路中采集了100万个样本(测试中有一个量子比特无法有效工作,实际只用了53个量子比特)。而据谷歌称,这一任务由一台尖端的超级计算机来完成需要约1万年。不过这个结果很快遭到IBM研究人员的质疑,并且很快在预印网站arxiv上刊出了他们的成果并指出,利用他们的方法,经典超级计算机可以在2.5天内以更高的保真度完成相同的计算任务。按照这个结果,我们距离“量子霸权”还很远。但无论如何,谷歌的该项成果仍具备划时代的意义,将极大增强科学家们对实现大规模可扩展的通用量子计算机的信心。
四、未来发展展望
阿里达摩院发布的2020十大科技趋势中的第七点预测就是量子计算进入攻坚期。谷歌在硬件上的进展大大增强了行业对超导路线的乐观预期,也对其他如光量子、离子阱等硬件研发路线造成严峻压力。阿里达摩院预测,2020年多个追赶者“或做出令人钦佩的复制性结果,或陷入高度复杂的工程噩梦”。目前,量子计算机的产业化和军事化应用已经进入关键时期,世界主要国家和龙头企业都投入巨大人力和物力开展量子计算方面的研究,主要围绕的研究方向包含复杂性理论、人工智能和机器学习、程序验证等几方面。
1.量子计算复杂性理论研究前景
目前,虽然出现了一些量子算法,但是量子计算的理论研究还很不充分。现有的量子算法应用于解决经典可计算问题,而对于不可计算问题在量子环境下却没有进行充分讨论,如逻辑数学中的停机问题。部分研究人员通过对不可计算问题进行等价替代的方案提出了对应的量子求解算法,但研究尚处于理论分析阶段,如果能够在物理上实现,则量子计算可为解决经典的不可计算问题提供新的方向。经典的量子图灵机模型围绕问题的可计算性而非计算复杂度展开,且该模型并不能计算递归函数。因此,从数学、物理学等多学科角度讨论新的量子图灵机模型,有望突破量子计算模型的理论瓶颈。
目前广泛使用的公钥密码都依赖于大整数质因子分解和椭圆曲线上的离散对数问题。然而在量子计算机上求解这些问题存在多项式时间算法。量子计算理论的发展,将对现存公钥密码体制构成严重的威胁。量子计算复杂性理论有助于构造抗量子密码,进而确保量子计算环境下的密码安全。尽管该领域在理论方面已取得一定的研究成果,但是,人们对量子计算的复杂性以及量子计算机实现的研究还处于初级阶段,还有许多问题有待更深入的研究。
另外,图理论和组合理论中已提出的量子算法在性能上已被证明为远远快于同类经典算法。但是,可求解的问题相对有限,基于量子计算能否在多项式时间内求解所有NP类问题仍有待研究突破。在量子算法方面,自Shor因子分解和Gover搜索算法提出后,虽然各国众多的研究者在该领域进行了大量的研究。但目前尚未发现其他解决经典问题的新量子算法。在量子问题复杂性关系及其与古典问题复杂性关系方面,还有许多不确定包含关系,如NP问题中不同子集的对应性、不同算法间的复杂度对应关系等都有待确定。
2.量子计算与人工智能的碰撞
随着Alpha Go战胜围棋世界冠军李世石,以深度学习为代表的人工智能技术已在全球范围内形成研究热潮。在经典计算机上,深度网络的神经元互联都采用数字矩阵表示,即神经元间的数据计算采用矩阵运算,并通过专门设计的GPU技术实现提升,但其运行速度仍远逊于量子计算机。麻省理工学院物理学家、量子计算先驱Seth Lloyd表示:“在量子计算机上,大型矩阵的操作速度堪称呈指数级增长。”另一方面,根据大数据预测,到2025年全球的数据量将达到27.49 TGB(1TGB=1012 GB),其中约有30%的数据将具有大数据价值。基于目前的计算能力,在如此庞大的数据面前,人工智能的训练学习过程将变得相当漫长,甚至无法实现最基本的人工智能,因为数据量已经超出了内存和处理器的承载上限,这将极大限制人工智能的发展,需要量子计算机来帮助处理未来海量的数据。基于以上事实,近年来已有量子机器学习和量子深度学习等概念呈现,但所述研究大多还处于理论阶段,只有少部分论文提及具体算法的实现及验证。虽然理论上已经证明量子算法对部分经典计算问题有着可喜的提速效果,但是大多算法并未在量子环境下运行,只能通过模拟的方法实现,故难以展现其真正的数据处理能力。
3.量子计算在程序验证领域应用前景
量子硬件设计与制造技术的发展使得大于100个量子比特的特定用途量子计算机有望在未来10年内实现。伴随着该预言,量子计算软件的开发研究成为争夺战略高地的热门领域之一。当前,围绕量子计算所设计的程序、协议都遵循“量子数据流,经典控制流”的基本思路。该思路较为自然且相对容易实现,只需要在经典的程序设计语言中增加对于量子数据的操作,如酉变换和量子测量等。但是,该思想并不能最为有效地发挥量子计算特有的优势,带量子控制流的函数式量子程序设计语言是未来发展的趋势。并且,围绕该趋势还将开展相应的编译器和新型量子图灵机模型研究,其核心为量子叠加的严格语义定义问题。在没有递归和循环的情况下,如果整个程序中对量子比特的测量都可以移到最后一步,则带量子控制流的程序语义比较容易定义,本质上是针对量子的多路复用。但是,如果中间过程存在量子测量,那么问题会变得非常困难,需要通过提升量子相干时间、引入超算子控制流等方式进行应对。此外,带量子控制流的量子递归和循环是一个非常困难的问题,需要全新的思想、理论进行理解并解决。
五、总结
量子计算还处在理论发展和实验验证阶段,其发展前景还存在太多的不确定性。无论从理论上还是工程技术上讲,量子计算都还是一项极不成熟的技术,真正的量子计算机,不仅仅是包含量子计算,还需要更多的技术支撑,比如,量子存储、量子通信、量子程序设计等等。目前距离实用的量子计算机还有很长的路要走,一方面,实验量子计算还存在很多不可逾越的技术障碍,目前的实验系统,普遍面临纠缠量子比特数少、相干时间短、出错率高等诸多挑战;另一方面,量子计算相对于经典计算机的优势还有待进一步确认,目前所公布的量子算法仅针对特定问题,且大部分处于实验室理想状态。
文档为doc格式