首页 公文范文 量子计算的概念

量子计算的概念汇编(三篇)

发布时间:2023-12-31 10:56:10

绪论:一篇引人入胜的量子计算的概念,需要建立在充分的资料搜集和文献研究之上。搜杂志网为您汇编了三篇范文,供您参考和学习。

量子计算的概念

篇1

在诺贝尔奖委员会的新闻稿中,两位获奖者的成就被称为“为实现量子计算机奠定了基础。”一时间,量子计算机也成为了业界关注的焦点。

薛定谔的猫和诺贝尔奖

对于普通人来说,量子力学是个深不可测的概念。不过,随着最近几年科幻题材电影电视剧的风靡,“平行宇宙”、“平行世界”之类的词汇开始被频频提及,而它正是出自量子力学的相关概念。

想要了解什么是量子计算机,那么首先需要了解“薛定谔的猫”这个量子力学中的经典假设。

1935年,奥地利著名物理学家,同时也是量子力学创始人之一的薛定谔设想出这样一个实验:一只猫被关进一个不透明的箱子里,箱子内事先放置好一个毒气罐,毒气罐的开关由一个放射性原子核来控制。当原子核发生衰变时,它会释放出一个粒子触发毒气罐的开关,这样毒气释放,猫就会被毒死。

根据量子力学的理论,在实验者没有开箱进行观测时,原子核处于衰变和未衰变的叠加状态,换言之,箱子里的猫既是活的也是死的,对于普通人来说,很难理解“既生又死”这样的状态,但这正是量子力学研究的领域。量子力学针对的是在微观环境下的物理现象,在这一环境中,大家中学时候学习的经典物理学中的规律会突然失效,微观世界是由另一套自然法则在操控,这也是为什么薛定谔的理想实验中猫既能是活的也能是死的。

不过,一旦打开箱子,微观实现就会出现“崩塌”,原子核的状态就会确定下来,此时猫是生是死也随之揭晓答案。

长期以来,由于不能实际观测,量子力学仅仅停留在理论之上,而缺乏实践的验证。然而,今年两位诺贝尔奖得主的成就正是在这方面取得了突破。他们各自通过精妙的实验,使“测量和操控量子系统成为可能”,让不打开箱子就能观察猫的生死变成了可能。当然,更重要的是,它也使量子计算机的实现变得不再遥不可及。

不再是空想的量子计算机

所谓量子计算机是基于量子力学基本原理实现信息处理的一项革命性计算技术。1982年,美国物理学家费曼在一次演讲中提出利用量子体系实现通用计算的想法,当时他发现,分析模拟量子物理世界所需要的计算能力远远超过了经典计算机所能达到的能力,而用实验室中一个可控的量子系统来模拟和计算另外一个人们感兴趣的量子系统会非常高效,量子计算机的概念也应运而生。

量子计算机与经典计算机不同之处在于,对于经典计算机来说,其基本的数据单位就是一个比特,相对应的一个比特不是0就是1,而对于量子计算机来说,一个比特可以同时表示0和1,这就意味着两个比特就能表示00、01、10、11四种状态。这样,只要有300个量子比特,其承载的数据就能是2的300次方,这将超过整个宇宙的原子数量总和。简而言之,量子计算机的运算能力将是目前经典计算机所无法比拟的。

前面的表述未免抽象,举一个形象的例子:目前最好的多核处理器能够解密150位的密码,如果想要解密一个1000位的密码,那么需要调用目前全球的计算资源才有可能实现。但是从理论上讲,一台量子计算机在几个小时内就能解决这一问题。在量子计算机面前,目前世界上最复杂的密码也会变得不堪一击,这意味着互联网上将不再有秘密可言,人类需要重新设立一套与现在完全不同的信息加密系统。

量子计算机的用处当然不只是破译密码,在大数据分析的时代,对计算机运算能力的要求正变得愈来愈高,从语义识别到人工智能,都需要倚仗计算机强大的运算能力才能完成,这也让业界对于量子计算机的诞生充满了期待。

不过,虽然理论上300个量子比特就能赋予计算机难以想象的运算能力,但现实与想象毕竟还存在不小的差距。根据清华大学交叉信息研究院助理研究员尹章琦的介绍,估算大概需要至少一万个量子比特才能超越经典计算机的计算能力,“因为我们需要对计算过程进行纠错,所以需要很多个物理比特才能获得一个可容错的逻辑比特。估计需要大概一千个逻辑比特运行Shor算法来超越经典计算机的计算能力,那么物理比特至少要高一个量级,甚至可能要高两个量级”。尹章琦所从事的正是关于量子信息与量子光学的理论与实验研究。

商业化的未来

在学界还在探讨量子计算机可行性的时候,产业界已经迫不及待开始了实践。早在2001年,IBM就曾经成功实现利用7个量子比特完成量子计算中的素因子分解法。

2007年,加拿大的D-Wave公司就了号称全球第一台商用量子计算机――采用16位量子比特处理器的Orion(猎户座)。不过,Orion后迅速被业界泼了一盆冷水,业内人士称,Orion并不是真正意义上的量子计算机,只是具备了一些量子计算的特性。

去年,D-Wave卷土出来,了全新的产品――D-Wave One,这一次它的处理器达到了128量子比特,比前代产品大大提升,一台售价高达1000万美元。但是,由于D-Wave对核心技术三缄其口,学术界无法得知关于其产品的更多信息,质疑之声再起,因为目前能够实现10量子比特已经是相当了不起的成就。

不过,即便质疑不断,D-Wave还是成功拿到了第一张订单,外国媒体报道,美国知名的军备制造商洛克希德・马丁已经购买了D-Wave的产品并且将其用在一些复杂的项目上,比如F-35战斗机软件错误的自动检测。

不仅如此,D-Wave还在今年10月得到了来自贝索斯以及美国中情局下属投资机构In-Q-Tel总计3000万美元的投资。贝索斯的投资逻辑显而易见,随着现实世界的不断互联网化,他的野心自然是通过深度挖掘和分析亚马逊积累的海量数据创造出更大的商业价值,而量子计算机正是实现这一切的基础。

篇2

量子通信是加密概念,而不是传输概念,更不是什么超光速通信。

举一个简单的例子来说明。假设你有两个朋友,一个在广州,一个在北京,你自己则在中间的上海。你们三个人事先说好,你会随机给这两个朋友中的一个人寄一个苹果,另一个人寄一根香蕉。那么当你的广州朋友收到苹果时,他会瞬间知道你给北京朋友送的是香蕉。在你广州朋友打开盒子看到苹果的那一个瞬间,确实是以比光速还要快的速度获得了关于你北京朋友收到了香蕉的这个信息,但这个“信息”并非实际存在的信息,甚至接收到第一个信号还要依靠传统的邮寄运输模式。

当然真正的量子通信要远比两个水果复杂得多,但本质完全一样,量子通信从来不是超光速传递信息,而是无论采取何种方式都必须依靠经典通信技术参与,所以更无“颠覆”一说。

量子通信区别于经典通信,实质上是量子的“不可破解性”。比如上个例子中的“苹果”和“香蕉”,可以看成是两个纠缠起来了的量子,一个人拿到了其中一个,就可以判断出另一个。但如果不知道“苹果”和“香蕉”的纠缠关系,哪怕截获了整个苹果,也猜不出另一方收到的是什么水果。

在现实应用里当然没有两个水果那么简单,“苹果”会变成一个无穷复杂的量子,那么能和其对应的“香蕉”,就是另一个无穷复杂的惟一量子,两个量子就是“纠缠态”,所以量子通信里量子的用途,最终是保密而不是传输。

量子通信和量子计算

是两回事

量子技术在现实应用方面,一直有两大主要分支,第一是量子通信,第二是量子计算。这两者听上去也很容易混淆,但其实代表着完全不同的两种技术路数。总体来说,中美两国恰好是选择了两个不同的方向。

在量子通信产业化方面,中国无疑领先于美国。

量子通信的商用性主要就体现在数据保密上,比如,网上银行数据的远程灾备应用、金融机构信息数据的采集应用、金融信息交易应用以及银行同城数据生产和灾备应用等。目前量子通信里面研究的主要进展,就是把一对纠缠态量子之间的距离尽可能拉长。比如,中科大潘建伟院士团队实现的“多自由度量子隐形传态”研究,刚刚被评为2015年度国际物理学领域的十项重大突破之首。潘建伟团队将量子之间的安全距离进一步扩展到了地面200千米以上,这在低耗能的太空意味着2千米的距离,量子通信卫星由此成为可能,下一步就是大规模量子网络。

但是美国为什么要搞量子计算?这和硅谷这几年全力投入机器学习和人工智能的风潮有关系。虽然量子计算的应用其实很受限,但和人工智能的核心部分却异常匹配,可能是未来真正强大的人工智能出现的基础。

篇3

虽然中国高性能计算已经取得了里程碑性的成绩,但是科研工作者的脚步不会停止。他们已经在思考未来的发展方向在哪里,并将目光瞄向了“天然的超级计算机”―量子计算机。

“杞人忧天”的物理学家们与量子计算机的诞生

量子计算机的诞生和著名的摩尔定律有关,还和“杞人忧天”的物理学家们有关。

众所周知,摩尔定律的技术基础是不断提高电子芯片的集成度(单位芯片的晶体管数)。集成度不断提高,速度就不断加快,我们的手机、电脑就能不断更新换代。

20世纪80年代,摩尔定律很贴切地反映了信息技术行业的发展,但“杞人忧天”的物理学家们却提出了一个“大煞风景”的问题: 摩尔定律有没有终结的时候?

之所以提出这个问题,是因为摩尔定律的技术基础天然地受到两个主要物理限制。

一是巨大的能耗,芯片有被烧坏的危险。芯片发热主要是因为计算机门操作时,其中不可逆门操作会丢失比特。物理学家计算出每丢失一个比特所产生的热量,操作速度越快,单位时间内产生的热量就越多,算机温度必然迅速上升,这时必须消耗大量能量来散热,否则芯片将被烧坏。

二是为了提高集成度,晶体管越做越小,当小到只有一个电子时,量子效应就会出现。此时电子将不再受欧姆定律管辖,由于它有隧道效应,本来无法穿过的壁垒也穿过去了,所以量子效应会阻碍信息技术继续按照摩尔定律发展。

所谓隧道效应,即由微观粒子波动性所确定的量子效应,又称势垒贯穿。它在本质上是量子跃迁,粒子迅速穿越势垒。在势垒一边平动的粒子,当动能小于势垒高度时,按照经典力学的说法,粒子是不可能越过势垒的;而对于微观粒子,量子力学却证明它仍有一定的概率贯穿势垒,实际上也的确如此。

这两个限制就是物理学家们预言摩尔定律会终结的理由所在。

虽然这个预言在当时没有任何影响力,但“杞人忧天”的物理学家们并不“死心”,继续研究,提出了第二个问题:如果摩尔定律终结,在后摩尔时代,提高运算速度的途径是什么?

这就导致了量子计算概念的诞生。

量子计算所遵从的薛定谔方程是可逆的,不会出现非可逆操作,所以耗能很小;而量子效应正是提高量子计算并行运算能力的物理基础。

甲之砒霜,乙之蜜糖。它们对于电子计算机来说是障碍的量子效应,对于量子计算机来说,反而成了资源。

量子计算的概念最早是1982年由美国物理学家费曼提出的。1985年,英国物理学家又提出了“量子图灵机”的概念,之后许多物理学家将“量子图灵机”等效为量子的电子线路模型,并开始付诸实践。但当年这些概念的提出都没有动摇摩尔定律在信息技术领域的地位,因为在相当长的时间内,摩尔定律依然在支撑着电子计算机的运算速度的飞速提高。

直到今年,美国政府宣布,摩尔定律终结了。微电子未来的发展是低能耗、专用这两个方向,而不再是追求速度。

由此可见,基础研究可能在当时看不到有什么实际价值,但未来却会发挥出巨大作用。

量子计算机虽然好,研制起来却非常难

量子计算机和电子计算机一样,其功用在于计算具体数学问题。不同的是,电子计算机所用的电子存储器在某个时间只能存一个数据,它是确定的,操作一次就把一个比特(bit,存储器最小单元)变成另一个比特,实行串行运算模式;而量子计算机利用量子性质,一个量子比特可以同时存储两个数值,N个量子比特可以同时存储2的N次方数据,操作一次会将这个2的N次方数据变成另外一个2的N次方数据,以此类推,运行模式为一个CPU的并行运算模式,运行操作能力指数上升,这是量子计算机来自量子性的优点。量子计算本来就是并行运算,所以说量子计算机天然就是“超级计算机”。

要想研制量子计算机,除了要研制芯片、控制系统、测量装置等硬件外,还需要研制与之相关的软件,包括编程、算法、量子计算机的体系结构等。

一台量子计算机运行时,数据输入后,被编制成量子体系的初始状态,按照量子计算机欲计算的函数,运用相应的量子算法和编程,编制成用于操作量子芯片中量子比特幺正操作变换,将量子计算机的初态变成末态,最后对末态实施量子测量,读出运算的结果。

一台有N个量子比特的量子计算机,要保证能够实施一个量子比特的任意操作和任意两个量子比特的受控非操作,才能进行由这两个普适门操作的组合所构成的幺正操作,完成量子计算机的运算任务。这是量子芯片的基本要求。如果要超越现有电子计算水平,需要多于1000个量子比特构成的芯片。目前,这还无法实现。这种基于“量子图灵机”的标准量子计算是量子计算机研制的主流。

除此以外,还有其他量子计算模型,如单向量子计算、分布式量子计算,但其研制的困难程度并没有减小。另外,还有拓扑量子计算、绝热量子计算等。

由于对硬件和软件的全新要求,量子计算机的所有方面都需要重新进行研究,这就意味着量子计算是非常重要的交叉学科,是需要不同领域的人共同来做才能做成的复杂工程。

把量子计算机从“垃圾桶”捡回来的量子编码与容错编码

实现量子计算最困难的地方在于,这种宏观量子系统是非常脆弱的,周围的环境都会破坏量子相干性(消相干),一旦量子特性被破坏,将导致量子计算机并行运算能力基础消失,变成经典的串行运算。

所以,早期许多科学家认为量子计算机只是纸上谈兵,不可能被制造出来。直到后来,科学家发明了量子编码。

量子编码的发现等于把量子计算机从“垃圾桶”里又捡回来了。

采用起码5个量子比特编码成1个逻辑比特,可以纠正消相干引起的所有错误。

不仅如此,为了避免在操作中的错误,使其能够及时纠错,科学家又研究容错编码,在所有量子操作都可能出错的情况下,它仍然能够将整个系统纠回理想的状态。这是非常关键的。

什么条件下能容错呢?这里有个容错阈值定理。每次操作,出错率要低于某个阈值,如果大于这个阈值,则无法容错。

这个阈值具体是多大呢?

这与计算机结构有关,考虑到量子计算的实际构型问题,在一维或准一维的构型中,容错的阈值为10^-5,在二维情况(采用表面码来编码比特)中,阈值为10^-2。

目前,英国Lucas团队的离子阱模型、美国Martinis团队的超导模型在单、双比特下操作精度已达到这个阈值。

所以,我们的目标就是研制大规模具有容错能力的通用量子计算机。

量子计算机的“量子芯”

量子芯片的研究已经从早期对各种可能的物理系统的广泛研究,逐步聚焦到了少数物理系统。

20世纪90年代时,美国不知道什么样的物理体系可以做成量子芯片,摸索了多年之后,发现许多体系根本不可能最终做成量子计算机,所以他们转而重点支持固态系统。

固态系统的优点是易于集成(能够升级量子比特数目),但缺点是容错性不好,固态系统的消相干特别严重,相干时间很短,操控误差大。

2004年以来,世界上许多著名的研究机构,如美国哈佛大学、麻省理工学院、普林斯顿大学,日本东京大学,荷兰Delft大学等都做了很大的努力,在半导体量子点作为未来量子芯片的研究方面取得了一系列重大进展。最近几年,半导体量子芯片的相干时间已经提高到200微秒。

国际上,在自旋量子比特研究方面,于2012年做到两个比特之后,一直到2015年,还是停留在四个量子点编码的两个自旋量子比特研究上,实现了两个比特的CNOT(受控非)。

虽然国际同行关于电荷量子比特的研究比我们早,但是至今也只做到四个量子点编码的两个比特。我们研究组在电荷量子比特上的研究,2010年左右制备单个量子点,2011年实现双量子点,2012~2013年实现两个量子点编码的单量子比特, 2014~2015年实现四量子点编码的两个电荷量子比特。目前,已研制成六个量子点编码为三个量子比特,并实现了三个比特量子门操作,已经达到国际领先水平。

超导量子芯片要比半导体量子芯片发展得更快。

近几年,科学家使用各种方法把超导的相干时间尽可能拉长,到现在已达到了100多微秒。这花了13年的基础研究,相干时间比原来提高了5万倍。

超导量子计算在某些指标上有更好的表现,比如:

1.量子退相干时间超过0.1ms,高于逻辑门操作时间1000倍以上,接近可实用化的下限。

2.单比特和两比特门运算的保真度分别达到99.94%和99.4%,达到量子计算理论的容错率阈值要求。

3.已经实现9个量子比特的可控耦合。

4.在量子非破坏性测量中,达到单发测量的精度。

5.在量子存储方面,实现超高品质因子谐振腔。

美国从90年代到现在,在基础研究阶段超导领域的突破已经引起了企业的重视。美国所有重大的科技公司,包括微软、苹果、谷歌都在量子计算机研制领域投入了巨大的力量,尽最大的努力来争夺量子计算机这块“巨大的蛋糕”!

其中,最典型的就是谷歌在量子计算机领域的布局。它从加州大学圣芭芭拉分校高薪引进国际上超导芯片做得最好的J. Matinis团队(23人),从事量子人工智能方面的研究。

他们制定了一个目标―明年做到50个量子比特。定这个目标是因为,如果能做49个量子比特的话,在大数据处理等方面,就远远超过了电子计算机所有可能的能力。

整体来看,量子计算现在正处于“从晶体管向集成电路过渡阶段”。

尚未研制成功的量子计算机,我们仍有机会!

很多人都问,实际可用的量子计算机究竟什么时候能做出来?

中国和欧洲估计需要15年,美国可能会更快,美国目前的发展确实也更快。

量子计算是量子信息领域的主流研究方向,从90年代开始,美国就在这方面花大力气进行研究,在硬件、软件、材料各个方面投入巨大,并且它有完整的对量子计算研究的整体策划,不仅各个指标超越世界其他国家,各个大公司的积极性也被调动了起来。

美国的量子计算机研制之路分三个阶段:第一阶段,由政府主导,主要做基础研究;第二阶段,企业开始投入;第三阶段,加快产出速度。

友情链接