课题成果

量子计算技术发展概述
发布时间:2025/9/19 11:58:48      点击次数:22


来源:信息安全与通信保密杂志

作者:赵海军、向黎、汤雨晴



本文梳理超导、硅半导体、离子阱、中性原子与光量子五大技术路线的最新突破:从“祖冲之二号”升级到“本源悟空”问世,从离子阱保真度刷新纪录到光量子“九章三号”实现算力优越性,详实呈现全球与中国在比特规模、门保真度、量子体积等关键指标上的激烈角逐。


文章摘要:作为量子信息技术的重要组成部分,量子计算是一种以量子力学为基础的新型计算模型,通过在物理设备上对微观粒子进行操控,可以利用叠加纠缠等量子效应实现信息的并行处理,从而为解决计算问题提供超越经典计算的量子加速。近年来,量子计算已在信息安全、机器学习等领域取得诸多进展。系统综述了量子计算技术发展现状,并从量子算法及硬件发展2个方面,梳理了近年来量子计算在算法理论及多种硬件技术路线的发展成果,以期为量子计算相关研究工作提供参考。



0 引  言


量子计算作为量子信息技术的重要组成部分,以量子比特为基本单元,利用量子叠加、干涉等原理实现信息处理,具备经典计算无法比拟的信息表征能力和并行处理能力,能够为解决特定计算复杂问题提供指数级加速。作为“第二次量子革命”的重要标志,量子计算不仅能够带动计算能力的跨越式发展,还有望颠覆和重塑传统技术体系对于信息处理和问题解决的模式,为经济社会发展带来前所未有的机遇。量子计算不仅在提升计算困难问题的运算处理能力、加强信息安全保护能力等方面展现出超越经典信息技术的潜力,而且未来有望在前沿科学、信息通信和数字经济等领域引发颠覆性技术创新和变革性应用。

当前,量子计算正处于蓬勃发展的阶段,实现量子计算硬件设备的主要技术路线包括超导量子计算、离子阱量子计算、中性原子量子计算、光量子计算、硅半导体量子计算等,均得到了工业界与学术界的广泛关注。然而,尽管量子计算硬件技术取得了显著进展,但目前仍处于含噪声中等规模量子(Noisy Intermediate-Scale Quantum,NISQ)设备的发展阶段。NISQ设备拥有数十到上千个量子比特,但由于缺乏完善的纠错机制,其计算能力受到噪声和误差的制约。尽管如此,NISQ设备在量子化学、机器学习和优化问题等特定应用领域已展现出一定的潜力。

本文系统综述量子计算在算法理论与硬件实现上的发展现状,梳理量子算法发展历程,同时总结近年来量子计算在超导量子计算机、离子阱量子计算机等多条技术路线上的实验进展。通过总结相关研究成果,本文旨在梳理量子计算发展脉络,为下一阶段量子计算的相关研究工作提供理论参考与支撑。



1 量子算法发展概述


量子计算的概念最早可以追溯至20世纪初,1982年理论物理学家Feynman证明了量子计算与经典计算的等价性,表明量子计算作为一种通用计算模型,在求解问题时至少拥有与经典计算相等的计算能力。1992年,Deutsch等人针对平衡函数的判断问题,提出了具备查询复杂度指数加速的Deutsch-Jozsa算法,首次从原理上展示了量子计算在加速计算问题求解上的巨大潜力。1994年,Shor通过利用量子傅里叶变换和相位估计,成功将质因数分解问题的复杂度从指数级降至多项式级,并提出了突破性的Shor算法。该算法不仅动摇了以RSA加密为代表的经典密码学体系,还掀起了全球量子计算研究的热潮。2001年,Shor算法在核磁共振量子计算机上首次得到实现,而中国科学技术大学团队于2007年在光量子平台验证了其可行性,为后续开展更大规模量子实验验证奠定了基础。

在Shor算法提出后,量子算法研究进入高速发展阶段。1996年,Grover针对无序数据库搜索问题提出了Grover算法,通过量子振幅放大技术实现了相较于经典计算的平方加速,显著提升了搜索效率。然而,该算法存在概率性输出的局限性。随后,清华大学龙桂鲁团队提出了改进的Long算法,首次实现确定性量子搜索,进一步拓展了算法的适用场景。在线性代数领域,2008年,Harrow等人提出了HHL算法,利用量子相位估计和受控旋转操作,在稀疏线性方程组求解中实现指数加速。该算法因其在工程与科学中有着广泛的应用前景而备受关注。后续研究通过引入可变时间振幅放大和绕过相位估计步骤,显著优化了其时间复杂度。在实验验证方面,2013年,潘建伟团队首次实现了2×2规模的HHL算法,并在2019年基于改进后的HHL算法,将实验规模进一步拓展至8×8规模,为探索量子计算在电磁散射、金融建模等领域的实际应用提供助力。

近年来,随着量子硬件进入NISQ阶段,量子算法的研究也逐渐开始转向适配于NISQ计算设备的实用化方向,衍生出了一类新型算法分支,即变分量子算法(Variational Quantum Algorithm,VQA)。VQA的核心思想是通过经典优化器调控参数化量子线路,实现对特定问题的高效近似求解,其典型代表包括用于量子系统基态能量计算的变分量子本征求解器(Variational Quantum Eigensolver,VQE)及用于组合优化问题求解的量子近似优化算法(Quantum Approximate Optimization Algorithm,QAOA)。当前,关于VQA的研究主要聚焦于线路结构优化、噪声抑制策略及探索潜在量子计算优势的应用场景,旨在为量子计算设备的实际应用提供理论支撑。



2 量子计算硬件技术发展现状


量子计算硬件的实现有多种技术路线,处于并行发展阶段。量子计算硬件技术路线大体上可分为两类:一类是基于微观结构形成分立能级系统的“人造粒子”路线,如超导和硅半导体的量子计算机;另一类是直接操控微观粒子的天然粒子路线,如离子阱、光量子和中性原子量子计算机。前者在量子系统的可扩展性等方面具有优势,但是在量子门保真度及量子比特控制等方面存在较大困难;后者在比特全同性及高逻辑门精度方面存在实现优势,但是在构建更大量子系统时更加困难。近年来,研究人员在各方向的技术路线均取得了较大进展,亮点成果纷呈,主要成果如下文所述。

2.1 超导量子计算机

超导量子计算机是基于超导约瑟夫森结构建的扩展二能级量子系统,包括电荷量子比特、通量量子比特、相位量子比特等种类,以及Transmon、Xmon、Fluxonium等多种构型,具有可扩展性强、易操控和易与集成电路耦合等方面的优势,是目前世界多国科研机构、科技公司采用的一种主流量子计算硬件实现方法。

2022年2月,美国量子科技公司Regetti上线了Aspen-M-1超导量子计算机,其具有80个可操作的量子比特。随后,在2023年12月推出了具有84个量子比特的Ankaa-2量子计算机,单比特门保真度达到了99.9%,两比特门保真度达到了97.5%。2022年,美国科技公司IBM推出了127量子比特的Eagle超导量子计算机,并在2023年底发布了1 121量子比特的超导量子处理器Condor,在2024年发布了133量子比特的量子计算机Heron(5K)。Heron最多支持5 000个量子门操作,并且支持量子错误缓释技术。2024年11月,IBM推出了包含156量子比特的超导量子计算芯片Heron R2。根据IBM发布的量子硬件技术路线图,IBM预计将在2025年发布156个量子比特支持5 000个量子门操作的Flamingo量子计算机。2019年,Google基于53个量子比特的Sycamore(悬铃木)超导量子计算机首次展示了相较于经典计算机的量子优势。随后,在2022年,Google团队将Sycamore拓展至72个量子比特,并于2023年采用5码距的表面码在拥有72个transmon量子比特和121个可调谐耦合器的“悬铃木”设备上实现了纠错。2024年12月,谷歌推出了新一代105量子比特超导量子计算芯片Willow,首次在超导系统实现了随着比特数增加,错误率指数下降的“实时纠错”。此外,谷歌量子团队基于随机线路采样任务,进一步展示了量子优势,即量子计算机可在5 min内完成的计算任务,经典超算需要10的25次方年。

与此同时,国内相关研究团队在超导量子计算机方向的研究也在持续不断进行。2022年,阿里巴巴量子团队宣布实现了基于Fluxonium系统的双比特门99.72%的保真度。同年,百度量子计算团队发布了超导量子计算机“乾始”。2023年,中科大在66量子比特超导计算机“祖冲之二号”基础上,增加了110个耦合比特控制接口,使得可操控比特数达到176个,并实现了可编程的二维量子行走。同年,中国科学院物理研究所利用41位超导量子芯片“庄子”成功模拟了“侯世达蝴蝶”拓扑物态。2024年,中国科学院推出了504量子比特的超导“骁宏”量子计算芯片(图1),北京量子院联合研究团队实现了509个量子比特与经典计算资源的融合,该方案由5块百比特超导量子芯片构成,实现了两比特门保真度超过97%。此外,2024年,本源量子发布了搭载72位超导量子芯片的本源悟空量子计算机,包含了72个工作量子比特与126个耦合器量子比特。时至今日,超导量子计算机的发展在比特数量、操控精度及相干时间等关键性指标上均保持快速均衡发展,有望率先实现量子纠错和突破杀手级应用。

1.png


2.2 硅半导体量子计算机

硅半导体量子计算机通过采用硅锗异质结、砷化镓和金属氧化物半导体等衬底材料,利用硅同位素量子点结构中的电子自旋构造量子比特,其具有可扩展性强、与现有互补金属氧化物半导体(Complementary Metal Oxide Semiconductor,CMOS)工艺兼容性较好等特点。近期硅半导体量子计算机的发展主要集中于量子比特数量和保真度的提升。2022年,澳大利亚新南威尔士大学、荷兰代尔夫特理工大学和日本理化研究所3个团队基于不同硅基量子处理器方案,均实现了双量子比特门99%以上的保真度。同年,荷兰QuTech研究团队基于6位硅基自旋量子比特实现了99.77%的单量子比特门保真度,刷新了单量子比特门保真度纪录。2023年,Intel发布了12位硅基自旋量子芯片Tunnel Falls(图2),该款芯片是目前已有最大规模硅基量子计算芯片。2024年,日本理化研究所基于硅量子点中电子自旋间的自旋封锁现象,实现了量子比特的高速高精度读出。然而,硅半导体量子计算机由于受限于同位素材料加工及栅格间串扰等因素的影响,在可扩展性方面依旧面临严峻的挑战。

2.png


2.3 离子阱量子计算机

离子阱量子计算机利用电场与磁场间的相互作用力,囚禁在射频电场中的带电离子,进而利用受限离子的基态与激发态构建二能级量子系统,以实现量子计算。离子阱量子计算机的特点是量子比特具有较好的全连接性、操控精度高、相干时间长。2022年,美国科技公司IonQ基于钡基离子阱系统实现了99.96%的单比特门量子保真度,并推出了32量子比特离子阱计算机Forte,计划于2025年推出新一代64比特量子计算机IonQ Tempo及实现99.9%的门保真度。2022年,另一家美国科技公司Quantinuum发布了包含20个量子比特的离子阱计算机Model-H1,并实现了量子体积指标8 192的新纪录。该公司于2023年推出了基于32个量子比特的离子阱量子计算机Model-H2(图3),实现了单比特门99.997%及两比特门99.8%的量子保真度,将量子体积提升至524 288。截至2024年,Quantinuum已将Model-H1与Model-H2分别扩展至20量子比特与56量子比特,分别实现量子体积1 048 576与2 097 152。

3.png

近年来,国内关于离子阱量子计算机的研究也在持续不断地进行。2023年,华翊量子利用声光偏转器来执行大规模离子晶体中的量子比特独立寻址,发布了37量子比特离子阱原型机HYQ-A37,实现了99%的单比特量子逻辑门操作保真度及96.8%的双比特量子逻辑门操作保真度。2024年,清华大学实现了512离子的二维阵列的稳定囚禁冷却及300离子量子比特的模拟计算。

虽然离子阱量子计算机硬件设备近年来得到了快速发展,但是离子阱量子计算机依旧面临大规模扩展、高集成度测控等方面的挑战。

2.4 中性原子量子计算机

中性原子量子计算机通过利用激光束阵列形成光镊,在超高真空腔中囚禁中性原子,进而通过激光将原子激发至里德堡态以实现二能级量子系统,其特点是相干时间长、量子比特操作保真度高,且相较于离子阱系统具有更好的可扩展性。2022年,美国芝加哥大学相关研究团队成功实现了512位二维原子阵列。同年,哈佛大学与麻省理工学院研究团队实现了289量子比特的里德堡原子量子处理器并用以解决图问题。此外,法国科技公司Pasqal利用光镊系统成功捕获了324个中性原子实现了大型量子处理器阵列。该公司在2024年进一步扩大了系统规模,成功利用2 080个陷阱位捕获了1 110个原子。2023年,加州理工大学、普林斯顿大学及哈佛大学分别基于中性原子量子计算机设计实现了量子纠错的新方法,有效提升了量子门保真度,其中哈佛大学研究团队在60个铷原子阵列的中性原子量子计算机上实现了99.5%的双比特纠缠门保真度。同年,美国科技公司Atom Computing发布了规模为1 225的原子阵列以及1 180量子比特的中性原子量子计算原型机。2024年,德国达姆施塔特工业大学宣布成功实现了基于1 305个单原子的量子比特阵列操控,美国科技公司Infleqtion宣布建成包含1 600个量子比特阵列的中性原子量子计算机,并计划在未来五年实现容错量子计算。

与此同时,中科酷原采用激光冷却和囚禁单原子作为量子比特,利用微波实现单比特量子门,发布了100比特以上的原子量子计算机“汉原1号”(图4),并实现了99.9%的量子单比特门保真度。近年来,基于中性原子的量子计算机技术路线在理论研究与实验实现方面均有亮眼表现,有望为未来量子计算产业发展提供新的助力。

4.png

2.5 光量子计算机

光量子计算机利用光子的偏振、相位等自由度实现量子态的编码和量子比特的构建,具有相干时间长、测控相对简单、可以室温运行等特点。根据是否支持逻辑门运算,光量子计算机可以分为逻辑门型量子计算机和专用光子计算机2种类别。前者可以用来构建通用量子计算机,而后者的典型代表如玻色采样系统和相干伊辛系统可用于组合优化问题,特别是图论问题等专用计算问题的求解中。2022年,加拿大科技公司Xanadu宣布利用Borealis光量子计算机(图5)实现了基于216压缩态的高斯玻色采样实验,进一步验证了量子计算机相较于经典计算机所具有的量子优势。同年,德国马克斯-普朗克研究所实现了14个光子纠缠操控,刷新了当时光子操控的新纪录。

5.png

2023年,中科大联合研究团队发布了含有255个光子的“九章三号”光量子计算机原型机,进一步提升了完成高斯玻色采样实验的采样速度,验证了量子计算的优越性。随后,玻色量子推出了100量子比特的光量子相干伊辛机“天工量子大脑”,并与中国移动合作开展图像渲染算力调度优化任务的可行性验证。2024年,玻色量子进一步扩展了“天工量子大脑”伊辛机,将其系统规模扩展至550量子比特,推出了“天工量子大脑550W”。同年,荷兰科技公司QuiX Quantum基于光量子芯片展示了GHZ态的生成,验证了基于集成光子技术有望实现大规模光量子计算机。现阶段,逻辑门型光量子计算机需要进一步加强光子间的相互作用、构建双比特逻辑门及实现大规模集成光子等方面的研究,专用型光量子计算机有望在求解组合优化问题等方面实现实际应用,展示计算优势。



3 结  语


自Shor算法提出以来,量子算法研究持续沿着算法理论创新与工程实验实现的双重路径发展。一方面,基于完全容错量子计算模型的理论算法体系不断丰富,在无结构数据搜索、线性代数运算等计算任务中展现出加速潜力;另一方面,随着NISQ计算条件的演进,以变分量子算法为代表的NISQ算法,通过与经典优化方法的结合,为量子计算在化学模拟、组合优化等领域的近中期应用开辟了可能路径。尽管当前NISQ算法是否具备可验证的量子优势仍是学界争论的焦点,但基于实际量子设备的算法验证工作已逐步展开,为建立量子计算技术的实际应用提供了重要基础。

在硬件实现层面,超导、离子阱、光量子等主要技术路线均取得突破性进展。值得关注的是,我国科研团队在中国科学院“骁宏”超导芯片、本源“悟空”量子计算机、“九章三号”光量子原型机等重大成果中展现出显著的技术竞争力。尽管当前量子计算仍面临纠错机制不完善、算法-硬件协同设计不足等核心挑战,但各技术路线在保真度提升、系统集成度、工程化控制等方面仍需持续突破。未来研究应着力推动量子算法与硬件发展的深度融合,在深化基础理论探索的同时,加强面向密码分析、人工智能等实际场景的应用验证,推动量子计算技术实现从实验室原型向产业应用的关键跨越。




您感兴趣的内容
上一条:聚焦国家战略前沿 共绘量子通信蓝图|京港澳青年科学家大会量子通信领域高端学术沙龙在京成功举办
下一条:没有了

返回列表