【摘要】由于现有半导体微电子技术物理极限的原因,传统计算机的发展渐渐接近其极限,而具有强大并行处理能力的量子计算技术的发展随之成为现实需求。然而,通常外部环境会对量子计算的基本单位量子比特产生干扰,产生量子衰减而导致计算错误。面临上述技术难题,全球出现了基于超低温超导材料、离子阱技术、微电子制造技术和通过量子纠缠来获取信息的四种技术实现路径之争。如何建造一台大型容错的通用量子计算机并将其应用于完成实际任务,同时带来收益,具有很大的技术挑战性与风险。量子计算机被称为“21世纪的星球大战计划”,它的实现可以带来信息技术的革命性变化。从历史上看,一项技术的进步取决于对该技术投入的人力和资金的多少。当前,各经济发达国家对量子研究的投入持续增长,已开始进行国家层面的指数级投资。
【关键词】量子计算机 技术路线 技术风险 战略投资
【中图分类号】TP30 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2021.07.010
李联宁,西安交通大学城市学院教授。研究方向为物联网、大数据、量子计算机。主要著作有《量子计算机——穿越未来世界》《物联网技术基础教程》《物联网安全导论》《网络工程》《大数据技术及应用教程》等。
传统计算机技术的发展逐渐走向停滞
当近代半导体芯片技术的发展使得每个晶体管缩小到只容纳一个电子时,按照传统模式,此技术将达到控制电子的物理极限。传统计算机技术的发展已逐渐走向停滞。
摩尔定律走到了尽头:近20年芯片速度几乎没有提升。从1958年第一个仅包含一个双极性晶体管的集成电路问世,到如今集成十几亿晶体管的处理器芯片的应用,集成电路在60多年的时间里发展迅速。我们现在使用的手机的性能已经相当于30年前的Cray-2超级计算机了。如此巨大的发展速度的背后是什么规律呢?要说清楚这个问题,我们就不得不提到芯片产业最著名的金科玉律——摩尔定律。
摩尔定律由戈登·摩尔(Gordon Moore)于1965年在《电子学》杂志中提出。在观察了当时晶体管制造工艺的发展之后,摩尔提出:同面积的集成电路上可容纳的晶体管数量会以每年增加一倍的速度发展。10年之后,摩尔根据当时的实际情况对摩尔定律做了第一次修正,将每年增加一倍改为每两年增加一倍。然而,摩尔定律毕竟是一个经验法则,半导体行业在摩尔定律的指导下一直发展到2013年。其后,行业组织对摩尔定律进行了第二次修正,将之前每两年翻倍的发展速度改为每三年翻倍。这次的修正从工程的角度来看至少有四个原因。
首先是工艺的极限。半导体制造工艺中主要工艺之一是光刻。这种工艺在理论上受到分辨率的限制,即由于可见光的波动性使其可以发生衍射,光束不能无限聚焦。要实现更小的工艺,就要用到波长更短的激光,而短波长的激光利用起来本就非常复杂。因此,把单个晶体管做到更小(即在同面积的集成电路上容纳更多的晶体管)变得异常困难。
其次是内部连接的极限。随着单位面积集成电路中的晶体管越来越多,内部连接成了集成电路中越来越重要的部分。内部连接要么做到快速的信号传输,要么做到尽量细的铜线和密集的排布,但鱼和熊掌不可能兼得。因为更细的铜线会产生更大的铜线电阻,而更密集的排线也会造成铜线间电流相互影响的加大。所以,即便晶体管能够越做越小,如何在保证快速信号传输的同时加入更多的内部连接也成为一个非常棘手的问题。
再次是传统晶体管的设计极限。当晶体管尺寸做到10纳米(nm)的时候,晶体管的栅氧化层只有几个原子的厚度。在这个尺度下至少会有三个问题。其一,在量子隧穿效应的影响下,晶体管的性质将变得很不稳定。其二,由于各个晶体管的制造过程不可能完全一样,因此不同晶体管会有不同的特性,而不同的特性在纳米级的尺度下会更加明显。其三,晶体管将会发生严重的漏电。这在移动设备普遍使用的今天是一个相当大的问题。
最后一个要提到的是技术投入的极限。新科技的研发需要大量的资金和时间,即便研发成功,公司的技术人员也需要投入大量的精力去学习并使用这些新技术。这就导致很多中小芯片制造商无力承担这项技术投入,而选择继续使用老技术进行生产加工。[1]
多核的陷阱:一直在“偷懒”的芯片。早在1971年,英特尔就推出了首个商用但速度仅有740kHz的计算机芯片。在此之后,芯片速度得到了迅速提高,在不到30年后的2000年已经突破2GHz,实现了近3000倍的增长。然而2000年似乎成为芯片速度提高的一个坎,直到今天,市场上多数处理器的速度仍在3GHz左右徘徊。
2001年,IBM(International Business Machines Corporation)制造出了世界上第一个双核处理器,使得两个低速度、低功耗的处理器可在性能方面与当下单个高速度的处理器相匹敌,并由此开辟了并行化体系结构的市场。2004年,英特尔在AMD发布了其第一个双核处理器后,更是宣布取消其对4GHz处理器的研究,转而与同行一起投入到多核处理器的研发当中。由此,计算机芯片的发展从之前的更高速的单核研究转变到同等甚至低速的多核研究。究其原因,主要是更高速的处理器的功耗和散热已经达到了不可忽视的地步。
2013年,在第二次修正摩尔定律的同年,功耗成为计算机发展的主要挑战。当晶体管的尺寸越做越小时,量子隧穿效应(指电子等微观粒子能够穿入或穿越位势垒)产生的漏电现象带来了越来越大的热能转换,使得芯片的散热成为急需解决的问题。于是,芯片制造商们纷纷停止高频芯片的研发,转而开始研究低频多核的架构。这才有了从2001年出现的第一个双核芯片到现在普遍家用电脑的4核芯片,再到如今英特尔最新架构上的64核芯片的发展。
然而,从单核向多核的发展并没有从根本上解决问题。因为芯片制造商仅仅是停止了高频单核的研发,但并未停止往同面积的集成电路内加入更多的晶体管。在晶体管越做越小并因晶体管漏电而导致芯片发热越来越严重的今天,芯片制造商们又是如何解决功耗以及散热的问题呢?答案是,没有解决。
为了在现有的散热技术上保证芯片不至于过热和功耗不至于过大,如今多核芯片中已经有一部分不能和其余部分同时使用。举个简单的例子,对于一个65纳米下的4核处理器,额定功耗允许其4个核同时全速工作。现在当工艺缩小到32纳米时,等面积的处理器能容下16核,但是能够同时工作的仍然只有4个核,而不能和其他部分同时使用的12个核被称为“暗硅”。按照如今的发展速度,现代处理器的“暗硅”部分很快就能大到99%。也就是说,按照如今的发展,不久之后的芯片,即便性能再好,在同一时间能够利用的也只是1%。[2]
阿姆达尔定律:程序并行化的极限。下面我们暂时抛开硬件,从软件程序的角度解释系统并行化的极限。多核芯片处理的问题在于:在此之前的绝大多数程序都是按照串行算法开发的,而这些程序还不能很好地在多核芯片上并行执行。因为整个程序里并没有启用多余的核进行处理,而这些多余的核在大多数时间里也都是闲置的。于是学术界和厂商开始了又一波对并行化的研究。他们一部分人希望通过设计新的编程语言,让程序员人工提高程序的并行度;另一部分人则希望通过对编译器的优化,使编译器自动识别程序中可并行的部分并生成可并行的二进制码。然而双方的成效都非常有限。
可并行的编程语言需要程序员有并行的编程思维,而这多多少少有违人类本身的逻辑思维方式。同时,并行语言为程序调试带来了很大挑战。因此,大规模的并行程序开发相当困难。与此同时,编译器能在程序中找到的可并行部分也相当有限,这也使得自动并行化的效率非常之低。这么看来,多核芯片真的是一个好的决定吗?程序的并行极限又在哪里呢?要解释这些问题,我们便不得不提到计算机科学界的另一个经验法则——阿姆达尔定律。
阿姆达尔定律于1967年由IBM360系列机的主要设计者吉恩·阿姆达尔(Gene Amdahl)提出。该定律首先将一个程序分成可并行和不可并行两部分,并指出程序中对某一部分进行并行后所能获得的系统性能改进程度取决于并行部分被使用的频率或所占总执行时间的比例。换句话说,在并行计算中用多核处理器对单个程序的加速受限于该程序所需的串行时间百分比。比如,一个程序中如果有一半是不能被并行的,那么即便有无限核的处理器,该程序能得到的最大加速比也只是两倍。如果同时考虑逻辑门和铜线连接的延迟,则可并行化的加速上限将在一个更低却更现实的高度。同时,在铜线延迟开始超过逻辑门延迟的今天,信号已经无法在一个时钟周期内被传达到芯片的所有地方。
当然,研究领域里也不乏试图再次突破现有体系所带来的物理极限的尝试。其中最大的项目要数对量子计算机的研究。从底层电路到计算机体系结构,再到上层的算法设计,学术界和工业界都投入了大量精力进行研究。
量子计算是计算机技术发展的必然。基于前面所论述的传统计算机面临的极限,当下计算机的研究越来越多地跳出了传统计算机的范畴。人类早就在寻求开发新一代计算机,比如光子计算机、DNA计算机以及量子计算机。这两年比较火的是量子计算机,与硅基计算机使用0、1做运算只能表示2个状态不同,量子计算机利用的是量子学的测不准原理,使用量子比特(qubit)计算,它的并行计算性能异常强大,可以处理普通计算机处理不了的计算。
量子计算机应运而生
量子力学(Quantum Mechanics)是物理学科专业领域的一个分支,专门研究微小粒子所具有的结构和性质,它为新的计算模式提供了基础。量子计算(Quantum Computing)在20世纪80年代初被首次提出,主要是借助微小的“量子”行为改进计算模型。当时人们研究量子计算机的初衷是模拟量子现象,服务物理学。当使用传统计算机模拟量子现象时,由于庞大的数据分析使得一次模拟所需运算时间过长,甚至可能穷尽科学家一生也看不到一次完整的结果。于是量子计算机研究应运而生。
量子计算机是一种完全不同的计算模式。量子计算机不只是更快的计算机,更是一种完全不同的计算范式,需要进行一些彻底的重新思考。在高等数学里,通过坐标变换可以将某一对象(例如一个矢量)所处的不同坐标系进行连接。量子力学应用于量子计算技术,可以用“幺正变换”(从一个表象到另一个表象的变换)来表示。这有点像到医院做了一次超声波检查,是在一个声学的象限;又做了一次CT电子计算机断层扫描检查,是在一个电子的象限。它们是从不同的层次和断面来看同一个事物的不同侧面,而且可以互相转换。在这个意义上,传统计算机的计算只是量子计算机计算的一个特例。
量子计算机的类型。量子计算机可分三大类:其一,模拟量子计算机,它直接操作量子比特之间的相互作用,而不把其行为分解成基本的门操作,包括量子退火器、绝热量子计算机和直接量子模拟器等。其二,数字NISQ计算机(Noisy Intermediate-Scale Quantum),含噪声的中型量子计算机,它使用物理量子比特上的基本门操作,执行一种特殊的算法。但是,这两种机器都存在噪声,这个缺点将限制这些计算机解决复杂的问题。其三,完全误差校正量子计算机,它是基于门的量子计算机的一个版本,通过部署量子误差校正,使有噪声的量子比特模拟稳定的逻辑量子比特,以便计算机在任何计算中都能可靠地工作。
量子计算机发展的阶段性成果。量子计算的第一个里程碑是小型专用NISQ计算机的出现。小型NISQ计算机是2017年由John Preskill提出的在未来几年将拥有50~100量子比特的机器,但其中还是有数十个量子比特的错误无法修正。它所使用的量子退火技术的研究大约在其出现的10年前就开始了。第二个里程碑是获得“量子霸权”(超越50量子比特),即完成一项在经典计算机上难以完成的任务(暂且不讨论这项任务是否具有实用价值)。2019年,在几个团队的不断努力下,这一目标得到实现。第三个重要的里程碑就是创造一个商业上有用的量子计算机,这要求量子计算机比任何经典计算机更有效地执行至少一个实际任务。在理论上实现这一里程碑比实现“量子霸权”更困难,因为它所需的应用程序必须比现有的经典方法更好、更有用。第四个重要里程碑是在量子计算中部署量子误差校正以创建逻辑量子比特,从而显著的降低错误率,这也是创建完全误差校正机器的第一步。
超高速量子计算机可能的具体应用有:加速新药物的研制,破解最复杂的密码安全系统,设计新材料,模拟气候变化,以及实现超级人工智能。然而,目前业内还没有就如何研发量子计算机达成共识,对于其将如何用于大众市场也尚未意见统一。[3]
各国科技巨头的竞争
目前,基于超导电路的量子比特和基于量子阱的量子比特研究取得一定进展,但其电路体积较大,使得大数目量子比特的集成面临很大困难,进而影响到量子计算的实际应用。
制约量子计算技术发展的主要因素。自上世纪80年代有了相关概念以来,一些计算机专家和物理学家就将量子计算机设为其研究的终极目标。然而,由于量子点具有天然的不稳定性,迄今为止人类在该领域仍未能有较大突破。制约量子计算机发展的三大因素分别是:量子的精度问题、量子扩展性问题、量子微秒级处理时间问题。
首先,量子的精度问题。例如,普通计算机在计算1+1等于几时,基本不会出错,而量子计算机由于量子精度不高的原因,可能运算1千次1+1的问题时,就有一次答案会出错。其次,量子扩展性的问题。科学家们发现,量子计算机的量子比特位数越高,由于外界环境的影响,整体运算精度就会相应大幅下降,这也是各国力争不断增加各自量子计算机的量子比特位数以增加计算成功率的原因。第三,各国在研制量子计算机中遇到的最难问题——量子微秒级处理时间问题。由于量子之间存在相互影响,量子数据会在极短时间内“损坏”,也就是说,在使用量子计算机时,必须在微秒级的时间内完成计算,并将计算数据导出。
近年量子信息技术发展情况。量子信息技术主要包括三个方面:量子计算、量子通信和量子精密测量。根据相关统计资料,在量子计算方面,美国最强,欧洲次之;在量子通信上,中国领先,欧洲次之;在量子精密测量上,欧洲是老大,其次是美国,中国弱一些。
2017年4月,量子集成化记录是谷歌(Google)的9量子比特;同年10月,英特尔(Intel)宣布制造出17量子比特的量子芯片;11月,国际商业机器公司(IBM)宣布成功研制50量子比特原型机;2018年1月,英特尔宣布成功设计、制造和交付49量子比特的超导测试芯片;同年3月,谷歌宣布成功制造72比特的超导集成量子计算机。短短1年多时间,竟然取得了如此巨大的成绩!不过,现在实际能够工作的超导集成量子计算机只有IBM的20量子比特、Rigetti Computing公司的19量子比特、中国科学技术大学的12量子比特、阿里巴巴的11量子比特、谷歌的9量子比特计算机。2018年12月后,先后出现的谷歌、IBM、英特尔的49~72量子比特的“中规模量子计算机”仍在评价之中。
当前量子计算机领域,谷歌、IBM、英特尔、Rigetti Computing四家公司正在着力提高集成化,紧追其后的是中国科学技术大学、阿里巴巴、微软。从现在业界的信息来看,很多公司将“超导集成量子计算机”作为后续商业化的重心。与此相对抗的还有硅基(Intel、Silicon Quantum Computing、日立等公司)、离子阱(IonQ、Alpine Quantum Technology、Honeywell等公司)、马约拉纳粒子(Microsoft、NOKIA等公司)、光子(Xanadu等公司)等平台。今后量子计算机领域会朝着哪个方向发展,目前无法给出进一步预测。
量子计算领域尚未就比较不同量子计算机的最佳方式达成一致,特别是那些建立在不同技术上的量子计算机。尽管IBM和谷歌都在使用超导体来创建它们的量子比特,但另一种方法依赖于捕获离子,即让带电原子悬浮在真空中,并由激光束操纵。IBM提出了一种称为“量子体积”的度量标准,其中包括诸如量子比特执行计算的速度以及它们避免或纠正错误的能力等因素。
量子计算是具有革命性的下一代计算技术,当前,各国量子计算模型的设计都比较成熟,但也都面临其所依托物质的困境。量子计算机需要依托超导物质、超导环境来实现并运作。然而目前,几乎所有国家都缺乏可实用的超导材料。虽然表面上各国在研发的量子计算机的量子比特上存在一定差距,但实际上,各国量子计算技术都远未达到可以商业化的水平。
各国量子科技力量的竞争。(1)美国。美国是研发量子计算机较早的国家之一。很多美国跨国公司是量子计算研究的主要力量。作为行业领头羊,谷歌选择了超导回路技术。超导回路是量子计算领域近期发展最快的方向,IBM也已为此投入大量资金。另一科技巨头微软(Microsoft)则选择了一个尚未得到验证的方向:拓扑量子比特。
量子比特数量是这些公司的竞逐重点。谷歌目前研发出72量子比特芯片Bristlecone(狐尾松),成为现今量子比特数最高的纪录保持者,而英特尔与IBM则分别以49个与50个量子比特紧追其后。相比之下,微软仍在设法开发一款可运行的计算机。微软正在追求一种新型设计,其基础是控制一种难懂的马约拉那费米子(Majorana fermion),而就在几年前,还没有人能够确定这种粒子是否存在。现在,工程师们即将能够以一种方法控制马约拉那费米子,使其能够执行运算。美国研发量子计算机的主要公司,具体情况分别如下。
谷歌在2017年首次组装了一台量子计算机,但那次尝试没有成功,因为这个含有72个超导量子比特的系统太难控制了,在纠错之后,有效利用的只有9个量子比特。2018年,谷歌推出一款72个量子比特的通用量子计算机Bristlecone,实现了1%的低错误率,在量子比特数量上首次领先于其它对手。后来,谷歌与美国国家航空航天局合作,共同开发量子计算机技术。2019年10月,谷歌宣布开发出名为Sycamore的量子计算机,有54个超导量子比特,其中在测试期间工作的超导量子比特有53个,测试的计算任务是“证明随机数发生器产生数字的随机性”。据报道,Sycamore能够在3分20秒内完成上述计算,而世界上最快的传统超级计算机“顶点”解决同样的问题大约需要1万年。这意味着传统计算机无法就此进行计算,而Sycamore成为第一个证明量子计算优势的计算机。
在开发量子计算机的竞争中,IBM是谷歌的最大竞争对手。在众多美国公司中,IBM公司是最早进入量子计算机领域的企业之一,其主要的超前点在于量子比特量级。据称,IBM能操纵的量子比特量级大幅领先于其他公司,已达50量子比特能力。理论上来说,超过49比特的量子计算机在性能上就能超过传统计算机。该公司2019年1月曾在美国拉斯维加斯消费电子展上展示了可操纵20个量子比特的“IBM Q系统1”,其被IBM称为可“商用”的量子计算机。同年9月,IBM公司宣布将推出53量子比特的可“商用”量子计算机,并将其95%的计算能力向用户开放(其量子计算系统的用户包括美国摩根大通银行、日本三菱化学等)。IBM还表示,自2016年以来,全球用户社区通过云计算在IBM的量子计算机上进行了1400多万次实验,并发表了200多篇科学论文。
2018年1月,英特尔宣布开始制造并交付49量子比特的超导量子芯片,而2个月前其刚宣布制造了17量子比特的量子计算机芯片。量子计算机实际上分为很多种类,英特尔的这个量子芯片基于低温超导量子原理,另外他们还在研究其他量子计算机类型,并表示其也在300mm晶圆上制造出了自旋量子比特。
这里需要说明,量子计算机现在还在发展的初级阶段,不论是谷歌的72量子比特、IBM的50量子比特还是Intel的49量子比特计算机,实际上都远远不够。英特尔表示业界还要5到7年时间才能解决规模化问题,真正商业化的量子计算机至少需要100万个量子比特甚至更多。
2019年11月,微软宣布了一项名为Azure Quantum的云计算服务。通过这项服务,人们可以通过云计算平台来访问量子计算机。Azure Quantum是一个全栈式开源量子云生态系统,它将微软先前发布的量子编程工具与云服务集成,使编码人员可以在模拟量子硬件或真实的量子计算机上运行量子代码。Azure Quantum的不同之处在于,它能够让客户访问多种量子计算技术,这很有可能是未来量子市场的发展趋势:由于量子硬件难以操作,因此,大多数公司都会选择通过云服务来实现自己对量子计算的需求,而不是购买或自建自己的量子计算机。实际上,此前微软已经推出了Q#量子计算编程语言,并集成到软件开发工具包Visual Studio系列产品当中。与此同时,微软也提供了本地和云上的量子计算机模拟器,可让用户提前尝鲜,在经典的计算机体系结构上尝试量子计算。当然,微软也提供了大量的文档和案例,感兴趣的开发者今天就可以学习和尝试量子编程。
(2)加拿大。加拿大D-Wave系统公司,是量子计算系统、软件和服务开发与商用的量子计算机公司,也是世界上为数不多的量子计算机供应商。2011年,其推出的商用量子计算机D-Wave One具有128量子比特处理器。2013年、2015年和2017年D-Wave又分别推出了512个、1000个和2000个量子比特的设计。第四代量子计算机D-Wave 2000Q就具有2000量子比特处理器。
目前,D-Wave系统公司具有完整的量子计算机操作系统、软件和开发人员工具。D-Wave系统公司主要客户是洛克希德马丁公司、谷歌、美国宇航局、大众、DENSO公司,USRA公司、南加州大学、美国洛斯阿拉莫斯国家实验室和美国橡树岭国家实验室等。2019年9月,D-Wave系统公司宣布其新一代5000-Qubit量子退火计算机将首次出售给洛斯阿拉莫斯国家实验室(the Los Alamos National Laboratory)。
(3)英国。英国量子信息技术中心也在探索超导回路,但其主攻方向是一项发展较为成熟的技术:离子阱。离子阱的工作原理是将离子通过电磁场限定在有限空间内,利用电荷与电磁场间的交互作用力来牵制带电粒子的运动,将其局限在某个小范围内。基于量子的纠缠态现象,通过激光可实现原子的纠缠。经过超冷处理的原子被囚禁在真空中,由激光束组成控制离子状态的通道网络,而这个网络结构是可以不断扩张的。一个离子阱就像一个算盘,原子在其中可以被不断拨来拨去。
如果谷歌的超导回路是一个芯片,那么英国量子信息技术中心的方案就是制作很多个小芯片。一个个离子阱,可以通过光学元件进行连接。英国量子信息技术中心的最终目标是制造一台Q20:20的量子计算机样机,其中包含20个离子阱,每个离子阱里囚禁20个原子,整体相当于一台400量子比特的量子计算机。
(4)澳大利亚。2016年,澳大利亚计划从硅开始制造量子处理器,而新南威尔士大学的研究人员开发了一种基于互补金属氧化物半导体(CMOS)工艺设计的新的计算机芯片。该芯片是世界上第一个纯硅量子计算机芯片。其量子叠加态的稳定性比以前提高了10倍,这有助于开发更可靠的硅基量子计算机。澳大利亚科研人员计划到2022年研制出一个10量子比特的基于硅基集成电路的芯片,这将成为建造世界上第一台基于硅基的量子计算机的重要里程碑。
(5)日本。2015年,日立制作所开发出堪与“量子计算机媲美”、基于CMOS Annealing(退火)技术的非冯·诺依曼型计算机处理器,其工作原理与加拿大D-Wave系统公司推出的商用量子计算机相似。然而,D-Wave系统只能在极度低温下工作,而且非常容易受噪声干扰,而日立的系统可以在室温下工作。日立已经试制出规模为D-Wave系统公司预定投产的量子计算机的约10倍的系统,并进行了工作演示。2015年日立发布的成果在量子计算机研究者中引起了轰动。按照过去的常识,即便是D-Wave系统等公司在短时间内得出结果的模型,也需要结合“量子纠缠状态”“隧道效应”等量子力学效应。如果如日立公司成果一样,在室温下工作、采用半导体技术的计算机也能够获得与量子计算机相同的结果,那么量子计算机有可能失去其存在的意义。
新型计算机的定位并不是替代传统计算机,而是要覆盖传统计算机不擅长的领域,二者是互补关系。对于利用传统计算机求解非常费时、费电的问题,可以利用新型计算机快速、省电地求出近似解。日立预测,今后在解决利用大数据、物联网、物流系统等社会性课题的时候,此类问题将频繁出现。该公司希望利用此次开发的技术解决社会性课题。
(6)中国。中国在量子计算技术方面的主要优势在量子通信领域。从当前发展程度来看,中国是较早进入这一领域,且处于国际“第一梯队”的国家,与西方国家几乎同步,且在超导技术方面可与掌握最先进技术的国家并驾齐驱。同时,在量子通信技术上,中国受到外界的技术干扰、管制的影响较小,发展前景良好。
2016年8月16日,中国发射全世界首颗量子科学实验卫星“墨子号”。截至2017年8月,其已完成包括千公里级的量子纠缠分发、星地的高速量子密钥分发,以及地球的量子隐形传态等预定科学目标。2017年9月,中国量子保密通信干线“京沪干线”开通。当日结合“京沪干线”与“墨子号”量子卫星,成功实现人类首次洲际距离且天地链路的量子保密通信。“京沪干线”连接北京、上海,贯穿济南、合肥,全长2000余公里,全线路密钥率大于20千比特/秒(kbps),可同时供上万用户密钥分发。
全球量子计算技术发明知识产权专利排行。量子计算是一种遵循量子力学规律、调控量子信息单元进行计算的新型计算模式。经过多年发展,量子计算技术的研究与应用探索不再只停留在理论研究阶段,而已经受到世界科技强国的高度重视,成为新兴技术领域热点,并已经初具产业生态。2019年11月,知识产权产业科技媒体IPRdaily与incoPat创新指数研究中心联合发布了“全球量子计算技术发明专利排行榜(TOP20)”,对截至2019年9月30日,在全球公开的量子计算技术发明知识产权专利申请数量进行统计排名。入榜前20名企业主要来自7个国家和地区。从国家来看,排名与入榜数量占比由上而下分别是:美国占比50%,日本占比15%,英国、加拿大各占比10%,中国、澳大利亚和韩国各占比5%。其中,来自加拿大的量子计算公司D-Wave以325件专利位列第一,来自美国的科技公司IBM和Microsoft分别以235件专利和212件专利排名第二位和第三位,来自中国的量子计算公司本源量子以36件专利排名第十二位(具体排名如表1所示)。入榜专利主要涉及与量子计算相关的结构、算法以及系统等技术领域。
1
量子计算发展主要困难和技术路线
1982年,量子计算机的概念由美国物理学家理查德·费曼(Richard Phillips Feynman)提出,但在20世纪80年代,量子计算机多处于理论推导等纸上谈兵状态。直到1994年,彼得·秀尔(Peter Shor)提出量子质因子分解算法,量子计算机开始成为热门话题。目前为止,我们已经在控制量子比特方面取得重大进展,许多研究小组已经验证了量子计算机的可行性并做出样机。这些工作使量子计算机领域生气勃勃,大量国家资本和私人投资进入其中。但量子计算的时代何时真正开始?这对于技术人员来说,是个至关重要的问题。因为量子计算一旦落地,将从根本上重新定义计算这件事。届时我们所学的每一个算法都可能需要重写,所有成果都需要翻新。
量子并行计算技术发展的主要困难。量子计算机现在只是刚起步,目前的硬件水平还不能制造出通用的量子计算机。量子比特会与外部环境发生作用而使量子衰减,这是目前面临的主要技术难题,而实现量子并行计算的两大技术困难如下:
其一,量子比特之间的相干性很难长时间保持。目前,量子计算机的研究还处于理论和实验阶段,只能产生几十个量子位。为了在量子计算机中实现高效的并行操作,必须使相互关联的量子比特串作一个整体,即量子相干。这样,只要处理其中一个量子比特,影响就会立即传输到序列中的其他量子比特。这一特性是量子计算机高速运行的关键。
由于量子相干系统与周围环境的相互作用,相干度会迅速衰减,并且随着量子比特数的增加,保持相干态将变得越来越困难。目前,此连贯性只能维持不到一秒钟。在如此短的时间内需要完成一定数量的逻辑运算,这对量子逻辑门的开关速度提出很高要求,而量子编码是迄今发现的最有效的方法。量子编码是用一些特殊的量子态来表示量子比特,以达到保持相干性的目的。主要的量子编码方案是:量子纠错码、量子避错码和量子防错码。其中,量子纠错码是经典纠错码的类比,是目前研究最多的一类编码,其优点为适用范围广,缺点是效率不高。
其二,要做出逻辑比特,则目前物理比特的数量仍不足。量子比特可以进一步分为物理比特和逻辑比特。由于噪声的客观存在和物理比特稳定性的一些缺陷,只有通过对多个物理比特的冗余处理,才产生逻辑比特。一般来说,噪声较小的系统可以用较少的物理比特对逻辑比特进行编码。与物理比特相比,逻辑比特具有更好的容错性。因此,尽管IBM、谷歌和英特尔已经制作了原型机并获得“量子霸权”,但如果他们想制作逻辑比特,则目前物理比特的数量还远远不够。事实上,这些量子计算机还处于非常原始的阶段,只能适用特定的应用。
当前,实现标准量子计算机的难点在于无法实现编码逻辑比特,当然还存在系统扩展、逻辑门精度等问题。由于这些技术瓶颈,现在开发的量子计算机只能称为原型,它们只能执行单一的特定功能,而无法实现通用的量子计算。
全球量子计算机四种技术实现路径之争。科学界最近涌现出的一些进步重新点燃了科学家想方设法组建更强大的量子计算机的热情,并促使其使用不同技术研制计算能力超强的量子计算机,从而使全球出现了四种主要的量子计算机技术实现路径。
第一,用超低温超导材料制成量子计算机。加拿大D-wave系统公司开发的量子芯片采用特殊的铌金属材料,这种材料在低温下呈超导态,其电流具有顺时针、逆时针和顺逆时同时存在的混合状态。在此基础上,实现了量子计算。D-wave系统公司已经开始在市场上销售量子计算机业务系统,主要客户包括谷歌和美国宇航局喷气推进实验室。
第二,基于微电子制造技术的量子计算。过去几年IBM依托于耶鲁大学和加州大学圣巴巴拉分校在量子计算领域取得了进展,研究小组将超导材料铼和铌分散在半导体表面,当冷却到绝对零度时,半导体表面呈现量子行为。研究结果表明,量子计算可以建立在标准微电子制造技术的基础上。
第三,离子阱制造量子比特。离子阱技术是利用离子阱中的离子制造量子比特,即利用电极产生电场,在电场里“俘获”经过超冷处理的离子。研究人员已经能够利用激光实现离子纠缠。到目前为止,研究人员已经用这种方法建立了一个由8个量子位组成的系统,全球有20多个大学和公司的研究实验室从事类似的研发和设计。
第四,使用量子纠缠来获取信息。量子计算机的基本单位是量子比特,即用原子的自旋等粒子的量子力学状态表示0和1。量子比特因可同时处于0和1的状态(量子叠加),使得量子计算机可以同时进行大量运算。根据量子力学的基本原理,随着量子比特数的增加,其计算能力呈指数增长,但是观测或测量量子比特可能会造成其计算潜力的削减。因此,研究人员利用量子纠缠来获取信息。在量子纠缠中,粒子连接在一起,则测量一个粒子的性质可以直接揭示另一个粒子的相关信息。然而,如何扩大纠缠量子位的数目并保持纠缠态是当前量子信息研究领域的一个严峻挑战。
量子计算机技术前沿。技术一,在极冷的环境下控制量子(主要研究者为谷歌、IBM和英特尔)。量子计算机能力的“大”和“小”,基本上取决于其量子比特的数量,而在传统架构下,当量子比特的数量迅速增加,一些基本粒子对于外界的干扰会越来越敏感,导致错误率急剧上升。由于量子是微观粒子,因此哪怕极其微小的电磁场都会对其构成干扰,产生所谓的“局部噪音”。同时,由于热辐射和电磁辐射等环境噪声的存在,量子系统会受到环境的干扰。只有在零场强和绝对零度的环境中,才有理想状态下的量子计算。这也是为什么量子计算机要放在接近绝对零度(约-273.15摄氏度)的容器里,被严严实实地封闭起来,对外界干扰“严防死守”。但是,由于这种温度环境需要消耗大量的资金和能源,这在一定程度上就阻碍了量子计算机小型通用化的技术进程。
技术二,采用“拓扑量子比特”进行计算(主要研究者为微软)。微软不是使用普通的“逻辑量子比特”(Logical Qubit)进行计算,其独特的技术路线是采用“拓扑量子比特”(Topological Qubit)进行计算。拓扑量子比特是通过基本粒子的拓扑位置和拓扑运动来处理信息。无论外界的干扰如何“蹂躏”基本粒子的运动路径,只要它还连续变化,从拓扑角度来看,其运动就是等价的。这也就是说,用拓扑量子比特进行计算,对于外界的干扰有极强的容错能力。这样一来,基于拓扑量子比特的计算机就可以在规模上很大,在能力上很强。微软是当前压宝拓扑量子计算的科技巨头。这个技术一旦取得突破,长期困扰我们的诸多计算难题将迎刃而解。
技术三,使用量子退火原理寻找最优解(主要研究者为D-Wave)。量子退火算法可以这样理解:在量子工作环境中加入一个随机的扰动,使得计算的解更容易出现在距离最优解更近的地方,然后多次进行退火过程使结果不断接近最优解。退火算法就是利用现实世界中量子系统的自然趋势来寻找能量状态的最低点。如果优化问题和量子系统自然趋势的峰值和谷值相似,则每一个坐标就代表一种可能的解决方案,而高度(峰值和谷值的差)则表示能量值。最优解就是能量状态的最低点和量子系统的谷值相互对应。
进一步的解释是:在量子计算机里,由于量子的物质波,量子的位置可以是它附近的任一处,只不过概率不同。初始时,我们给予某量子一个扰动,就好比金属开始退火时升高温度,它有可能会产生一个与当前值有一定距离的新值,然后计算机比较这两个值。接下来我们可以更改这个扰动,好比升高退火的温度,使量子可能出现在更多的地方,并继续进行比较判断,直到最终找到最优解,而此时量子恢复初始的稳定状态,就好比金属的退火结束,温度恢复到了正常温度。这也是为什么这个方法被称为量子退火。量子退火算法就是让大自然自己去选择最优的答案。目前商用量子计算机(其实是量子退火机)D-Wave Two会对每次计算任务重复4000次,以便使得解趋向更加精确。
国家层次的战略投资
从历史上看,一项技术的进步取决于对该技术投入的人力和资金的多少。技术的进步将推动经济的收入,从而使资金可持续投资在研发、人才等方面并进一步促进技术创新。如同互联网发展的过程,如果我们想在量子研究中实现持续的指数级别的技术进步,就需要进行指数级别的投资,并保持这种投资的良性循环。
在量子计算机研发中,先期的商业成功将增加整个领域的投资,但在没有商业回报的中间研发环节,则需要政府增加资金支持,因为研发时,艰难的中间环节直接影响研发的成功与否。从现状看,美国、英国、日本、中国等国以及欧盟都在加大对量子计算机开发的投入。
美国。2018年9月,美国政府发布《量子信息科学国家战略概述》(National Strategy for Quantum Information Science),旨在确保美国在“下一场技术革命”中的全球领导地位。同年12月,时任美国总统特朗普签署《国家量子计划法案》(National Quantum Initiative Act),至此酝酿半年的《国家量子计划法》正式生效。该法案旨在确保美国在量子信息科学及技术应用方面的领先优势,支持量子信息科学技术的研究、开发、论证和应用,要求美国总统实施“国家量子计划项目”(National Quantum Project)。法案授权在10年计划的前5年投资12.75亿美元用于量子信息科学,其中,向美国国家标准与技术研究院(National Institute of Standards and Technology)拨款4亿美元,向美国国家科学基金会(National Science Foundation,United States)拨款2.5亿美元,向美国能源部拨款6.25亿美元。这些资金将用于培养科学家、拓展研究和建立10个量子研究与教育中心。同时,该法案要求加强联邦量子信息科学技术研发的跨机构规划与协调,建立一个国家量子协调办公室(National Quantum Coordination Office),促使产业界与学术界建立伙伴关系。
英国。早在2013年的秋季预算中,英国政府就专门拨款2.7亿英镑用以支持“英国国家量子技术项目”(UK National Quantum Technology Project)在第一个5年的开展,意在加速量子技术的商业化进程。该项目包含4个研究中心,分别由4所高校主持,除了牛津大学领导的量子信息技术中心之外,还有伯明翰大学领导的量子传感和测量中心、约克大学领导的量子通信中心、格拉斯哥大学领导的量子先进成像中心。从2014年英国启动此项目,到2019年6月英国政府宣布向量子计算商业化投资1.53亿英镑以推动研发竞赛、新产品和创新、行业主导项目以及投资加速,5年间总投资超过10亿英镑。
欧盟。2016年3月,欧盟委员会发布《量子宣言(草案)》,计划于2018年启动总额10亿欧元的量子技术项目,旨在促进包括安全的通信网络和通用量子计算机等在内的多项量子技术的发展,以确保欧洲量子产业在全球产业蓝图中的领先地位。2018年10月,“欧盟量子旗舰项目”(EU Quantum Flagship)启动,这个10年预计花费10亿欧元的超大项目计划在三年内建造其第一台量子计算机Open Super Q,其目标是构建一台包含100个量子比特的量子计算机,并可以开放给外部用户使用。德国、西班牙、瑞典、瑞士和芬兰的10个学术和私营企业合作伙伴参与Open Super Q研发项目。欧盟量子旗舰项目重点关注四种量子技术:通信、计算、感知和仿真。同时,还将基础科学纳入其中。
日本。日本于2018年启动“量子飞跃旗舰计划”(Q-LEAP),总预算是10年220亿日元,其中三分之一将投入到量子计算机研究领域,针对此研究课题日本政府采取了产学研一体化方式进行。日本政府计划在2019年下半年将相关预算提高至250亿日元,比当时的140亿日元预算增加近一倍,以便加快量子技术的研发,为超高速量子计算提供基础技术支持,同时计划建立从基础研究到知识产权管理的综合性研究机构,推进人才培养。2019年11月日本政府专家会议在技术开发进度汇总表中提出,力争20年后实现能够进行超高速复杂计算的量子计算机实用化,缩小与欧美及中国相关领域的差距。
中国。中国将量子调控与量子信息列入“国家重点研发计划”。2016年7月,中国政府宣布将启动量子计算机研发。2017年2月,世界上最大的量子研究设施——中国量子信息科学国家实验室建设启动,一期计划投入70亿元人民币,长期投资将达千亿元人民币。2020年12月,中国科学技术大学宣布,该校潘建伟团队与中科院上海微系统所、国家并行计算机工程技术研究中心合作,成功构建76个光子的量子计算原型机“九章”,在量子计算第一阶段树起了一座里程碑。
风险与历史机遇
尽管我们对量子计算和量子技术的探索可能需要漫长的时间,但其中努力终将扩展人类知识的边界,并可能改变我们对于宇宙的理解。目前在量子计算机技术发展研究领域,技术风险与困难和发展机遇并存。
技术风险及需要克服的困难。第一,量子比特不能从本质上隔离噪声。经典计算机和量子计算机的主要区别之一,即它们如何处理系统中微小的干扰噪声。实际上,今天的经典计算机用于控制的操作位有很大的噪声边际,所以经典计算机可以抑制输入端的噪声污染,产生干净无噪声的输出。然而,对于操作量子比特的量子计算机来说,最重要的设计参数之一是错误率,低错误率一直很难实现。即使到2018年,5个或者更多个数的量子比特系统其错误率也超过几个百分点。在较小的系统中一般可以有效控制错误率,但当需要转移到更大的量子比特系统中时则较困难,只有进一步抑制输入端的噪声污染才能成功地进行量子计算。
第二,无误差的量子计算需要进行量子误差校正(Quantum Error Correction)。虽然物理量子比特的操作对噪声很敏感,但是可以在量子计算机中运行量子误差校正算法来模拟无噪声或者完全校正的量子计算。如果没有量子误差校正,像秀尔算法这样复杂的程序就不太可能在量子计算机上准确运行。然而,执行量子误差校正算法需要更多的量子比特,这使得计算机的开销增大。虽然对于无错误的量子计算,量子比特数量至关重要,但是因为开销过大,导致短时间内无法应用。
第三,大数据无法有效加载到量子计算之中。虽然量子计算机可以使用更少的量子比特来表示更多的数据,但是没有办法将大量的数据转换成量子态。对于需要海量数据输入的问题,产生输入量子态所需的时间将占据大部分计算时间,这大大降低了量子计算的优势。
第四,量子算法的设计具有挑战性。测量量子计算机的状态需将大量的量子态“折叠”成单个经典结果,这意味着,从量子计算机中所能提取的数据量与从同样大小的经典计算机中提取的数据量相同。但在未来,要想充分发挥量子计算机的优势,量子算法必须利用独特的量子特性。因此,量子算法的实现需要一种新的设计原则。量子算法的发展是量子计算机技术发展的一个非常重要的方面。
第五,量子计算机需要新的成套软件。由于量子程序不同于经典的计算机程序,需要进一步研究和开发软件工具。量子计算机完整软硬件工具的同步发展,将加速量子计算机的发展。利用早期的工具完成端到端的设计,有助于发现隐藏的问题,从而促进设计的整体成功,这也是经典计算机设计所采用的一套方法。
第六,量子计算机的中间状态无法直接测量。量子硬件和软件的调试非常重要。目前,量子态不能简单地复制用于测试,任何量子态的测量都会导致计算停止。新的调试方法对大型量子计算机的发展具有重要意义。
在量子计算机实现之前,量子计算还存在着重大的技术障碍。构建和使用量子计算机,需要整合计算机科学、数学、物理、化学、材料科学等一系列学科。[4]
历史机遇。今天,科学发展的趋势有两个:一是发现现有物质在原子层面和分子层面的组合方式,这涉及生命科学、高端材料等学科;二是探索世界存在的本质,量子论和相对论是这一领域里的两大利器。
量子计算机的实现正在带来信息技术的革命性变化,首先可能应用于医疗、国防、航天、金融、材料等行业。如果想在这些领域内有突破性的进展,就必须突破计算量太大的难关,就像在生命科学中,只有搞清楚有机物分子的排列,才有可能去模拟生命的各种可能性。因此,量子计算对这些领域的发展意义极大,计算能力的飞跃必然导致这些领域的大发展,届时生命、物质、能量、空间、时间的本质就会展现在人类的面前,今天的人类连想都不敢想的应用也会随之出现。
就算法而言,量子计算机有两大优点:一是对于任意一个传统计算机的算法,均有其相应的量子算法;二是存在传统计算机算法无法模拟的量子算法。人们只要造出位数和传统计算机相近的量子计算机,传统计算机算法就必然会被取代。随着人类使用的数据量越来越大,各种类型的量子计算机一定会走进我们的日常生活。量子计算机尽管在短期内不可能取代传统计算机,但它必将是人类科技文明的一个重要里程碑,是未来科技的引擎。除了量子计算潜在的社会益处之外,这项工作对国家的安全也有重大影响。
量子计算对于推动基础性研究具有重要价值,这些研究将有助于人类理解与认识未知世界。与所有的基础性研究一样,这一领域的进展会带来革命性的新知识和新应用。量子计算一定会给这个世界带来一次全新的技术革命,今天的我们甚至无法想象这样的技术革命会给社会带来怎样巨大深刻的变化。
注释
[1]J. Ren and V.K. Semenov, "Progress with Physically and Logically Reversible Superconducting Digital Circuits", IEEE transactions on applied superconductivity, 21(3), 2011, pp. 780-786.
[2]H. Esmaeilzadeh et al., "Dark Silicon and the end of Multicore Scaling", Annual International Symposium on Computer Architecture (ISCA), 38th, 2011.
[3]C. Monroe et al., "Large Scale Modular Quantum Computer Architecture with Atomic Memory and Photonic Interconnects", Physical Review A, 89(2), 2014.
[4]National Academies of Sciences, Engineering, and Medicine, Quantum Computing: Progress and Prospects, The National Academies Press, 2019.
责 编/桂 琰
Development of Quantum Computer: Technological Paths, Risks and Strategic Investment
Li Lianning
Abstract: Due to the physical limits of the existing semiconductor technology and microelectronics, the development of traditional computer is gradually approaching its limit, and the quantum computing technology with powerful parallel processing capability has been a growing need. However, the external environment usually interferes with the basic unit of quantum computing (qubit), resulting in quantum attenuation and calculation errors. To address the above technical problems, there has been a debate as to which of the following four technological paths should be adopted—the technology based on ultra-low temperature superconducting materials, the ion trap technology, the microelectronic manufacturing technology and the quantum entanglement to obtain information. It has been a great technical challenge and risk to build a large-scale fault-tolerant universal quantum computer and apply it to complete practical tasks while generating benefits. Quantum computer is known as the "Star Wars project of the 21st century", and its implementation can bring revolutionary changes to information technology. Historically, the progress of a technology depends on the amount of manpower and capital invested in it. At present, the investment by developed countries in quantum research has been increasing continuously, and they have begun to scale up investment at the national level.
Keywords: quantum computer, technological path, technological risk, strategic investment