天天快播:通用量子计算机几乎不可能造得出来?

时间:2022-11-25 05:49:35 来源:大可数学人生工作室

昨日,又闻中国要搞通用量子计算机,而且十到十五年实现,

近几年量子技术可谓在人们眼中是颠覆性黑科技一般,什么量子传输/量子加密/量子雷达/还有量子计算机,仿佛什么玩意儿只要带上“量子”两个字,那科技感和身价都得蹭蹭蹭往上窜!

不可否认,量子技术在某些领域确实有独到的作用,并且已经得到事实应用,比如量子加密验证领域,但其他如:量子隐形通信/量子超光速传输/都没有可能性,甚至所谓的“通用量子计算机”也可能没有实现的可能!


(资料图)

所谓的“通用计算机”就是如我们日常使用的PC个人电脑一样,除了能进行数学计算,还可以进行文字排版/图像处理/多媒体编辑等等复杂应用,为什么说“通用量子计算机”基本上不可能造得出来呢?

理论上所谓的量子计算机每增加一个量子比特,计算能力就相比传统计算机指数级提升,但真相哪有那么容易!尽管目前上百个量子比特的技术已经实现,但看看计算机(CPU)发展历史就知道,这也仅仅是完成了单细胞级别的实验而已,据业内分析,要能够具备处理复杂任务的级别,最低起码要达到4.2万个量子比特位,目前还差得非常遥远。前几年IBM一度以“量子霸权”一词震惊全球,更放出豪言要在2030年实现百万个量子比特位的目标,事实如何?远没有想象得那么乐观,我国最先进的量子计算机「九章」也才实现76个光量子的级别,100个都还没有达到!

量子计算机原理决定了其必然是多个子系统构成的非线性系统,并不可能如传统计算机处理器增加晶体管数量增强计算能力那样依靠将量子比特的简单叠加就实现计算能力的线性增强!因为当所谓“纠缠态”的量子比特位的增加必然导致实现精确计算越来越困难!就是上百个量子比特要保证计算过程中保持稳定都尚且如此困难,上百万个量子比特要保证完全不出问题那该如何保证?那些豪言十几年后就能实现通用量子计算机的人的勇气到底是怎么来的?

学过计算机的人都知道,计算机数据处理对于数据的存储地址必须是非常严格精确的,容不得一丝一毫的查错,如果是通用计算机的数据处理将会有海量的信息数据需要精确存储和精确读取,这对于传统以二进制逻辑门电路原理的计算机来说自然是先天的优势,但这对于量子计算机而言那简直就是让瞎子过独木桥,系统将很难实现精确无误的存储和读取,这会是什么后果,相信大家都懂。那能不能将量子计算机与传统通用计算机组合计算呢?很遗憾,应该也不行!因为量子计算机原理决定了我们只能对最初数据和最终数据进行处理,而且量子计算机整个计算过程的数据都必须是量子态的,这跟传统二进制原理的计算机根本就不相容!这又如何能用传统计算机来帮助量子计算机进行数据存储和辅助?量子不确定性原理先天就决定了量子计算机的数据计算的极其脆弱,稍微一丝丝的查错就会导致严重的差错,进而导致整个量子计算过程的彻底失败。正因如此,实际上量子计算更确切的称呼似乎应该称之为“模拟计算”!(搞电子电路和电气自动化的业内人士都懂什么是模拟量/数字量)

所以,量子计算机会有一个十分尴尬的现实:当我们以量子比特进行数据计算存取时,一开始我们还能读取其数值,而一旦开始计算我们就再也无法确切知道这个数据的精确数值了,那我们又如何保证整个量子计算的结果是精确无误的呢?有人提出给量子计算提供“纠错机制”,但很遗憾,现实是你给的纠错越多,带来的不确定性也越多,纠错机制本身就成了一种干扰!要保证稳定和精确的量子计算几乎是不可能的!

除了数据计算过程的问题,还有算法的问题,自从shor算法和Grover算法被提出来以后,好几十年了至今都没有新的算法出现,所以量子计算的算法方面已经停滞不前了。

量子计算本质就是一种模拟计算,其先天就无法保证数据的计算精度,而我们的传统通用计算机恰恰需要对数据计算保证精确性,假设用量子计算机来进行无人驾驶汽车的道路识别和车辆行驶数据计算,那可能会造成灾难性的后果!

综上所述,所谓的通用量子计算机很可能几乎无法实现,不过基于量子计算速度快的优势,将其应用到对数据精度没有要求的领域,还是可以发挥其优势的比如,数学上著名的“迷宫问题”就可以用量子计算的强大并行原理快速得到结果,还有比如生物医药的研制开发,计算大分子结构的组合方案/模拟人脑的神经网络计算等领域,似乎还是有可能实现的。2018年起,就有人对媒体和资本对量子计算的过度热情提出批评,但似乎商业领域量子某某的狂风根本不是一两盆冷水能让人冷静的,量子某某能不能成在他们眼里并不重要,关键是啥?你懂的…

量子科学,我之前有论述,本质上没有没有什么“纠缠”,所谓的纠缠也只是光子之间的固有特性,所谓量子神秘鬼魅的特性就是一些科学界“神神叨叨”给起哄起来的!理性看待!

责任编辑:

标签:

上一篇:
下一篇: