发布日期:2026-04-14 07:28 点击次数:142

4 月 8 日,一支由加州理工学院、谷歌量子 AI、MIT 和初创公司 Oratomic 组成的邻接团队在预印本平台 arXiv 发布论文,宣称解释了一个恒久悬而未决的命题:袖珍量子计较机不错在处理大限制经典数据的(部分)机器学习任务中,以指数级更少的内存高出经典计较机。
商议团队在电影指摘情感分析和单细胞 RNA 测序两个竟然数据集上考证了这一上风。用不到 60 个逻辑量子比特,量子算法的内存耗尽就比经典次第低了四到六个数目级。

量子机器学习这个规模一经干涉了二十年,但一直没能已矣早期的深广同意。率先那批算法堪称能加快线性代数运算,其后被一系列“去量子化”责任解释经典计较机用秘要的当场采样也能作念到;变重量子电路一度被交付厚望,却在查验中往往撞上“痛苦高原”,梯度磨灭得找齐找不到。
但这些辗转背后有一个更根柢的问题:险些总共宣称有量子加快的算法,齐假定数据一经以量子态的风物存在于机器中。现实天下的数据偏巧是经典的,比如一条条电影指摘、一张张 CT 影像、一转行基因抒发数据……如何把这些东西高效地“喂”给量子计较机,一直是个没东说念主能绕畴前的坎。
量子当场存取存储器(Quantum Random Access Memory,QRAM)曾被视为这个问题的终极解法。

这种诱惑表面上能让量子计较机像查字典一样,在近似态中同期看望无数经典数据。但 QRAM 于今停留在纸面上,督察它所需的磋商看望对硬件要求极为残酷。2024 年发表在 npj Quantum Information 上的一项商议从因果律和相对论道理起程推导 QRAM 的物理上限,论断止境悲不雅:要让 QRAM 达到实用限制,所需的硬件复杂度自己就会吃掉量子上风带来的收益。
更难受的是,用来督察 QRAM 运行的经典限度系统往往迷漫苍劲,不错径直经管底本筹谋交给量子计较机的问题。到 2019 年前后,业界初始厚爱想考一个问题:在处理来自宏不雅天下的经典数据时,量子计较机到底还能不可展现出任何上风?
新论文的冲破在于透澈绕开了 QRAM。商议团队提议了一套名为“量子预言机速写”(Quantum Oracle Sketching)的算法框架,中枢想路罕视力好像:把数据作为流来处理。每不雅察到一条经典数据样本,就对量子系统施加一个全心联想的小旋转操作,然后立即丢弃这条数据。
跟着越来越多的数据流过,这些小旋转渐渐积累,最终在量子系统中构建出一个迷漫精准的“预言机”近似,这个预言机不错被后续的量子算法调用,就好像数据一经以量子态的风物存在一样。
论文第一作家、加州理工学院博士生赵海萌在 Quantum Frontiers 博客上解释了这个主义的直观起首。传统想路是先把所稀有据存下来,再让量子计较机去看望;流式处理的逻辑全齐不同,数据来一条处理一条,处理完就丢,量子系统的景色自己即是对数据的压缩示意。这有点像经典的流式算法和在线学习,只不外量子版块能把信息压缩到指数级更小的空间里。

不外这种次第亦然有代价的。论文解释,用经典数据样本构建量子预言机需要付出“往常代价”,若是你想调用预言机 Q 次,就需要耗尽梗概 Q² 条数据样本。这个代价源于量子力学的玻恩轨则,量子振幅和经典概率之间的往常磋商是绑死的。商议团队同期解释了这个往常代价是最优的,不可能再镌汰。
商议团队选了两个数据集作念考证:IMDb 电影指摘数据集,任务是判断一条指摘是正面如故负面;单细胞 RNA 测序数据,任务是把高维的基因抒发数据投影到低维空间以鉴别不同类型的细胞。实验相比了四种次第:量子预言机速写、基于 QRAM 的量子算法、经典稀少矩阵算法、经典流式算法。为了公正相比,商议者长入用“基本存储单位”来揣摸内存耗尽,量子算法用逻辑量子比特数,经典算法用浮点数个数。

效率止境惊东说念主。要达到同等的展望性能,北京pk10官方网站量子预言机速写只需要不到 60 个逻辑量子比特,而经典次第需要的内存逾越四到六个数目级。更有道理的是,当放心截止内存预算时,量子算法的性能险些不受影响,而经典算法的发挥急剧着落。
赵海萌在博客中打了个比喻:300 个逻辑量子比特的量子处理器,在存储才能上不错高出一台由可不雅测寰宇中每一个原子组成的经典计较机。天然,要信得过看到这种戏剧性的对比,还需要寰宇级别的数据集和处理技术。
四到六个数目级的差距天然惊东说念主,但更值得关注的是这种上风的实质。
论文的中枢定理建树了机器大小与查询复杂度之间的根柢磋商:关于求解线性系统、分类、降维这些常见任务,一台多对数大小的量子机器不错在近线性技术内完成,而任何内存小于问题限制 0.99 次方的经典机器齐作念不到,即便给它超多项式的样本和技术也不行。
更要道的是,这种上风是“信息论层面的”和“无要求的”,不依赖任何计较复杂性猜测,只是依赖量子力学自己的正确性。换句话说,即便将来有东说念主解释经典计较机和量子计较机在多项式技术内能经管相同的问题,这里解释的上风依然建树。
这和之前展示的“量子优胜性”实验有实质区别。2019 年谷歌用 Sycamore 处理器完成的当场电路采样任务解释的是计较速率上的上风,况兼阿谁任务自己莫得什么试验用途。这一次,上风体当今内存而非速率,况兼任务(分类和降维)是机器学习中最基础、诈骗最广的操作。
John Preskill 在论文发布今日发推说:“咱们的论文解释,量子机器不错用指数级更少的内存经管常见的机器学习任务。要把这个表面解救为履行还需要无数责任。但因为当代 AI 往往受限于内存不及,这个发现增强了咱们的信心:量子 AI 最终能对日常生涯产生庸俗影响。”
天然需要强调的是,这项商议面前仍是表面解释加数值模拟,尚未在竟然量子硬件上考证。论文中的“60 个逻辑量子比特”是个容易激发歪曲的数字。逻辑量子比特是流程量子纠错编码的、受到保护的量子比特,和现时噪声中等限制量子诱惑上的物理量子比特全齐不是一趟事。要实现一个逻辑量子比特,可能需要数百以致上千个物理量子比特加上配套的纠错电路。
谷歌在 2024 年底发表于《Nature》的商议中刚刚初次展示了纠错性能随编码限制增大而普及的“阈值以下”操作,从那一步到能领会运行 60 个逻辑量子比特,中间还有止境长的路。
还有一个很多东说念主齐关注的问题可能是:这对大谈话模子来说有效吗?这些效率对现时最火的生成式 AI 有什么启示?论文处理的是分类和降维这类“判别式”任务,而大谈话模子是生成式的。赵海萌在博客中坦承,面前的效率“并不径直意味着对大谈话模子等当代生成式 AI 的即时效力”。
但他相比乐不雅地示意:“我有一种锐利的嗅觉,咱们正处于一个与传统机器学习期间惊东说念主相似的历史节点——阿谁辅助向量机和当场丛林主导的期间,阿谁咱们依赖严格统计分析因为穷乏大限制启发式探索所需计较资源的期间,阿谁最终滋长出深度学习和 AI 革新的期间。”
量子计较社区一直被一个问题困扰:除了破解密码和模拟量子系统,量子计较机到底还能用来干什么?这项商议给出了一个部分谜底。不是因为机器学习任务自己有什么量子结构,而是因为量子态的指数级抒发才能不错用来十分压缩对经典数据的示意,前提是你得找到符合的次第把数据“流”进去。
Preskill 在 2012 年提议“量子优胜性”见地时曾征引费曼的名言:“天然不是经典的,活该的,若是你想模拟天然,你最佳把它作念成量子力学的。”这篇论文的作家们在博客中整活回转了这句话:“咱们生涯在一个试验上是经典的天下里,活该的,也许经典计较机和 AI 对咱们的大多数问题一经够用了。”他们的论文解释,这个“也许”后头还有很大的商榷空间。
参考贵府:
1.https://arxiv.org/pdf/2604.07639
2.https://quantumfrontiers.com/author/haimengzhao/
运营/排版:何晨龙
星空体育app官方网站