量子处理器性能双指数增长研究

最后更新于:2025-11-20 20:57:42

量子处理器性能“双指数”增长轨迹的详尽分析报告

摘要

长期以来,量子计算的发展轨迹一直被框定在超越经典系统的“指数级加速”这一理论承诺之中。然而,源自2023年至2025年期间的最新实证数据揭示了一个更为深刻的转变:量子处理器的性能正以一种可能被描述为“双指数速率”(Double Exponential Rate)的方式与经典计算能力发生根本性的分道扬镳。这一现象,被业界通俗地称为“Neven定律”(Neven's Law),其核心论点在于量子算力的增长是两个指数因子的复合函数:希尔伯特空间维度随量子比特数的固有指数级扩展,以及工程技术突破带来的误差率指数级降低(或量子体积的指数级增长)。

本报告基于西方权威学术与工程来源——涵盖Google Quantum AI、IBM Research、Microsoft Azure Quantum及Quantinuum的开创性论文与白皮书——对这一“双指数”增长假设进行了长达15,000字的详尽技术审查。分析的核心聚焦于随机电路采样(Random Circuit Sampling, RCS)中观察到的计算复杂性“相变”(Phase Transition)、从“量子霸权”(Supremacy)向“量子效用”(Utility)的范式转移,以及对噪声诱导边界(Noise-Induced Boundaries)的严格物理定义。

我们的研究发现,尽管“双指数”这一术语带有某种启发式色彩,但底层物理机制支持这一“分流”的真实性。从含噪中尺度量子(NISQ)设备向误差缓解及早期纠错系统(如Google的Willow和Quantinuum的H2)的过渡表明,对于特定的高熵任务,量子处理器正在跨越一个关键的“计算相变点”。一旦越过此阈值,经典模拟所需的资源消耗将不再仅仅是线性或多项式增长,而是遭遇“复杂性悬崖”(Complexity Cliff),即模拟成本在垂直方向上与即便是E级超算的能力发生不可逆的剥离。

第一章 双指数增长的理论架构:Neven定律的物理与数学基础

1.1 定义“双指数”:从摩尔定律到Neven定律

“Neven定律”这一概念最早由Google Quantum AI实验室负责人Hartmut Neven提出,用以描述量子计算能力的增长速度不仅超越了线性增长,甚至远远甩开了经典计算领域著名的“摩尔定律”(Moore's Law)1。摩尔定律描述的是经典晶体管密度约每18个月翻一番的稳健指数增长($C(t) \propto 2^t$),而Neven定律则提出了一个惊人的假设:量子算力 $Q$ 的增长遵循双重指数规律,即 $Q(t) \propto 2^{2^t}$(或更为保守的估计 $2^{e^t}$)。

这种极端的增长率并非凭空臆造,而是源于两个独立的物理与工程指数因子的叠加效应:

内禀的量子指数优势(Intrinsic Quantum Advantage):量子计算的根本力量源于其状态空间的维度。一个拥有 $n$ 个量子比特的系统,其希尔伯特空间(Hilbert Space)的维度为 $2^n$。这意味着每增加一个量子比特,可探索的计算空间就翻倍。这是第一个指数因子。

工程迭代的指数速度(Engineering Velocity):如果量子处理器的规模(即功能性、高保真度量子比特的数量 $n$)本身随时间呈指数级增长——即存在一个针对量子硬件的“摩尔定律”——或者关键的性能指标如量子体积(Quantum Volume)随时间呈指数增长(例如Quantinuum承诺的每年10倍增长),那么计算能力 $2^n$ 就会变成 $2^{\text{exponential}}$ 2。

数学上,如果量子比特数 $n(t)$ 随时间 $t$ 线性增长(例如每年增加固定数量),则算力是单指数增长。但目前的趋势显示,随着制造工艺的成熟,量子比特数 $n(t)$ 本身正在经历加速增长,同时误差率 $\epsilon$ 正在以指数级速度衰减,从而使得“有效”量子比特数呈现指数级上升。这两个因素的复合,构成了Neven定律的数学基础。

1.2 停滞的幻觉与突然的爆发

双指数增长函数的一个显著特征是其在早期阶段的欺骗性。正如Neven所言:“看起来什么都没发生,什么都没发生,然后哎呀(whoops),你突然就处在一个不同的世界了” 1。

在2019年之前,量子处理器大多处于10到30个量子比特的区间。对于经典计算机而言,模拟30个量子比特(状态空间约为 $2^{30} \approx 10^9$)虽然繁重,但完全在笔记本电脑或小型服务器的能力范围内。此时,量子进步看起来是缓慢的,因为经典模拟可以轻松跟上。

然而,从30比特跨越到53比特(Google Sycamore, 2019),状态空间瞬间膨胀至 $2^{53} \approx 9 \times 10^{15}$,这直接逼近了世界最强超级计算机的内存极限。而到了2024年,当处理器达到67比特甚至100比特时,状态空间分别达到 $1.47 \times 10^{20}$ 和 $1.26 \times 10^{30}$。这种跨越并非线性的累积,而是维度的爆炸。

2023年至2025年这一时间窗口,正是这一曲线开始“垂直化”的拐点。在此期间,经典计算的改进(无论是硬件的摩尔定律还是张量网络算法的优化)只能在对数坐标上爬升,而量子系统的复杂性则在双对数坐标上飞跃,导致两者之间的性能差距被迅速拉大,形成所谓的“分流”(Divergence)。

1.3 维度与噪声的博弈:有效希尔伯特空间

对Neven定律最大的反驳力量来自“噪声”。在非纠错的量子系统中,量子比特非常脆弱,容易受到环境退相干(Decoherence)和门操作误差的影响。噪声的作用是将量子系统极其庞大的希尔伯特空间“坍缩”或“限制”在一个极小的有效子空间内。

如果误差率 $\epsilon$ 过高,一个100量子比特的处理器并不真正探索 $2^{100}$ 的空间,而是可能退化为经典的乘积态(Product State),其复杂性仅为多项式级别。因此,Neven定律成立的前提条件是:工程上降低误差率的速度,必须足以对抗系统规模扩大带来的熵增。

本报告的核心任务,即是通过分析Google的“相变”理论、IBM的“效用”实验以及微软的拓扑量子位进展,来验证当前的技术是否已经越过了那个关键的噪声阈值,从而确保了双指数增长的物理有效性。

第二章 霸权的战场:随机电路采样(RCS)的演进与相变

“量子霸权”(Quantum Supremacy,或称量子优越性)是验证Neven定律最直接的实验场。其实验核心通常采用随机电路采样(Random Circuit Sampling, RCS)。选择RCS并非因为它具有直接的工业用途,而是因为它能最大化量子纠缠和系统的熵,从而为经典模拟制造“最坏情况”的复杂性 4。

2.1 2019年Sycamore基准的回顾

2019年,Google利用53量子比特的Sycamore处理器宣布实现了量子霸权。其实验声称,Sycamore在200秒内完成了一项采样任务,而当时世界最强的超级计算机(IBM Summit)需要10,000年才能完成 5。

这一声明立即遭到了IBM研究人员的反驳。IBM团队指出,通过优化经典算法(特别是利用二级存储扩展内存的Schrödinger-Feynman算法),经典模拟的时间可以从10,000年缩短至2.5天 6。虽然“2.5天”对比“200秒”仍然存在巨大差距,但这一反驳揭示了一个关键动态:经典算法并非静止不动的目标。

随后的几年中,基于张量网络(Tensor Network)的经典模拟方法取得了巨大进展。利用GPU集群和优化的切片(Slicing)技术,西方学术界证明了对于深度较浅的电路,经典模拟可以逼近甚至超越2019年的实验精度。这引发了对“霸权”是否只是昙花一现的质疑。

2.2 2024年的转折点:计算复杂性的“相变”

面对经典模拟的追赶,Google Quantum AI在2024年发表在《Nature》上的重磅论文《随机电路采样中的相变》(Phase Transitions in Random Circuit Sampling)彻底重构了这场辩论的框架 4。这项工作为Neven定律提供了坚实的物理学证据。

该研究并未仅仅堆砌更多的量子比特,而是从统计物理学的角度,揭示了含噪量子电路中存在的两个截然不同的“相”(Phase):

动力学相变(Dynamical Transition):与电路深度(循环数)有关,延续了无噪情况下的反集中(Anti-concentration)特性。

噪声诱导的量子相变(Noise-Induced Quantum Phase Transition):这是理解双指数分流的关键。该相变由**每周期误差率(Error per cycle)**控制。

2.2.1 弱噪声相与强噪声相的对决

研究表明,存在一个临界误差率阈值 $\epsilon_c$。根据误差率与纠缠扩散的竞争关系,系统会落入以下两个区域之一:

强噪声相(Strong Noise Phase, $\epsilon > \epsilon_c$):
在此区域,噪声占主导地位,破坏了长程量子纠缠。系统的波函数坍缩,可以被近似为多个互不相关的局部子系统的乘积($\rho \approx \rho_A \otimes \rho_B \otimes...$)。
致命弱点:在这一相中,经典算法可以通过“欺骗”(Spoofing)策略,分别模拟这些局部子块,然后拼接结果,从而以极低的代价获得较高的交叉熵基准(XEB)分数。这意味着,处于强噪声相的量子计算机不具备真正的计算霸权。

弱噪声相(Weak Noise Phase, $\epsilon < \epsilon_c$):
在此区域,量子纠缠成功地“渗透”(Percolate)到整个处理器。全局相关性得以保留,系统状态无法被因式分解。
霸权护城河:在这一相中,计算复杂性是鲁棒的。经典模拟必须处理整个系统的张量网络,无法通过切割来降低复杂度。任何试图简化模拟的“欺骗”算法都会导致XEB分数骤降至零 4。

2.2.2 67量子比特/32周期的决定性实验

为了证明当前技术已跨越这一鸿沟,Google团队在67个量子比特上运行了深度为32个周期(Cycles)的RCS实验 4。

深度增加的意义:2019年的实验仅有20个周期。增加到32个周期极大地增加了量子纠缠的“混乱度”(Scrambling),使得张量网络模拟所需的“树宽”(Treewidth)指数级增加。

处于弱噪声相:实验数据显示,尽管系统存在噪声,但其表现特征符合“弱噪声相”的统计预测。XEB分数虽然绝对值较低(约 $1.5 \times 10^{-3}$),但显著高于任何基于局部近似的欺骗算法的得分。

模拟成本的垂直墙:论文断言,模拟这一特定的67量子比特/32周期实验,“超越了现有经典超级计算机的能力” 4。注意,这不仅仅是“慢”,而是指在合理时间内不可行。

这一结果是Neven定律最有力的实证支持。它表明,只要量子硬件能维持在“弱噪声相”,每增加一个量子比特,其复杂性就不可逆转地按指数规律拉开与经典计算机的距离。

2.3 经典模拟的“欺骗”与防御

“相变”理论的提出,实际上是对近年来针对2019年实验的各种“欺骗”算法的终极防御。

在2021-2023年间,基于NVIDIA GPU集群的张量网络算法(如“大批量模拟” Big-batch simulation)证明了可以通过寻找高概率比特串来“欺骗”线性XEB基准 8。这些算法利用了浅层电路纠缠不足的弱点。

然而,Google 2024年的分析指出,这些欺骗算法只有在系统处于“强噪声相”或者电路深度不够时才有效。一旦系统跨越相变点进入弱噪声相,全局纠缠使得“高概率比特串”的信息弥散在整个希尔伯特空间中,经典算法无法在不进行全量模拟的情况下定位这些比特串 7。因此,67比特实验实际上关闭了“经典欺骗”的窗口,确立了真正的分流。

第三章 经典模拟的边界:张量网络与复杂性悬崖

要确认“双指数”分流的真实性,必须公正地评估对手——经典模拟算法的极限。如果经典算法也能以双指数速度改进,分流就不存在。但物理限制表明,经典算法正面临一堵不可逾越的墙。

3.1 张量网络(Tensor Networks)的原理与威力

目前最先进的经典模拟工具是张量网络(TN)。TN将量子波函数表示为一个由张量组成的图形,通过收缩(Contraction)这个图形来计算振幅。

优势:TN可以将计算任务在内存和时间之间进行权衡(Space-Time Tradeoff)。通过“切片”(Slicing)技术,可以将一个巨大的张量网络切成多个小块分别计算,适合大规模并行化(如使用数千个GPU)。

2021-2023年的反击:西方学术界(及部分来自中国的研究,虽然本报告不作为核心依据)展示了利用60到512个GPU的集群,可以在几天甚至几小时内模拟53比特/20周期的Sycamore电路,且保真度甚至高于量子硬件 10。这曾一度让“量子霸权”看起来岌岌可危。

3.2 纠缠熵:经典模拟的“阿喀琉斯之踵”

然而,TN方法的计算成本并不取决于量子比特数 $N$,而是取决于张量图的“树宽”(Treewidth),而树宽直接关联于系统的纠缠熵(Entanglement Entropy)。

浅层电路:当电路深度较浅(如20周期)时,纠缠主要局限在局部,树宽较小,TN非常高效。

深层电路:随着周期数增加到32甚至更高,量子纠缠会在整个处理器上迅速扩散(Scrambling)。树宽随之线性增长,而TN的收缩成本则是随树宽指数级增长的。

Google 2024年的实验将深度推至32周期,正是为了击中TN的这一软肋。在32周期下,纠缠熵已经高到使得TN的收缩成本在当前及可预见的未来的超算上变得不可行 4。这就是所谓的“复杂性悬崖”(Complexity Cliff)。

3.3 噪声会导致模拟变容易吗?

一个学术界的争论焦点在于:噪声是否会让量子电路变得容易模拟?

Gil Kalai的观点:著名数学家、量子计算怀疑论者Gil Kalai长期认为,噪声会限制量子计算的复杂度,使其退化为原始的经典概率分布 13。

Caltech与Berkeley的研究:一些研究指出,在极高噪声下,量子电路确实会退化为易于模拟的马尔可夫过程 15。

Google的“相变”论文正面回应了这一点。他们承认在强噪声下Kalai是对的。但是,他们通过实验证明了在弱噪声相,即便存在噪声,系统依然保持了不可模拟的复杂性。只要误差率低于临界值 $\epsilon_c$,噪声并不会让模拟变得容易,它只是降低了信号的信噪比,而并未改变计算复杂度的级别 4。

第四章 从霸权到实用:IBM的量子效用(Utility)路径

如果说Google走的是一条通过RCS证明“绝对算力”的路线,那么IBM则开辟了另一条通过“量子效用”(Utility)验证双指数增长的路径。这条路径侧重于在容错量子计算(Fault Tolerance)到来之前,通过**误差缓解(Error Mitigation)**技术提取有价值的计算结果。

4.1 定义“量子效用”

IBM将“量子效用”定义为:量子计算机能够运行经典计算机无法进行暴力精确模拟的电路,并产生准确的可观测值结果 18。这与“霸权”不同,它不要求解决一个完全随机的问题,而是关注于对物理系统(如伊辛模型)的模拟。

4.2 《Nature》2023里程碑:超越近似方法

2023年,IBM在《Nature》发表了题为《容错前量子计算效用的证据》(Evidence for the utility of quantum computing before fault tolerance)的论文 18。

实验设置:使用127量子比特的“Eagle”处理器,模拟二维横场伊辛模型的动力学演化。

核心技术:零噪声外推(Zero-Noise Extrapolation, ZNE)。研究人员并非试图消除所有物理误差,而是故意放大噪声,然后在数学上反向推导出“零噪声”时的结果。

结果:对于超过100个量子比特和一定深度的电路,量子处理器给出的结果与经典张量网络(采用MPS方法)的近似结果在某些区域一致,但在强纠缠区域,经典近似方法失效,而量子计算机给出了被认为是正确的结果(后通过更高级的经典方法验证,但这正是“效用”的体现——量子计算机作为了真理的来源)18。

4.3 Heron处理器与性能指标的指数跃迁

IBM在2024年推出的“Heron”处理器(133-156量子比特)进一步巩固了这一趋势 20。

架构革新:Heron采用了可调谐耦合器(Tunable Couplers)架构,极大地降低了“串扰”(Crosstalk)——这是超导量子比特扩展的主要瓶颈。

层保真度(Layer Fidelity):IBM引入了“层保真度”作为核心指标,并结合EPLG(Error Per Layered Gate)。Heron的EPLG显著降低,使得其能够执行深度达5000门的电路。

速度指标(CLOPS):每秒电路层操作数(CLOPS)在两年内提升了240倍 21。速度的提升是线性的吗?不,在误差缓解算法中,采样开销随噪声呈指数增长,因此硬件速度的提升直接对抗了指数级的采样成本,维持了计算的可行性。

IBM的路线图显示,通过硬件保真度的提升(降低噪声底限)和软件误差缓解能力的增强,其“有效量子体积”正在经历与Neven定律相符的爆发式增长。

第五章 高保真度的胜利:Quantinuum的离子阱路线

在超导路线之外,Quantinuum(由Honeywell Quantum Solutions与Cambridge Quantum合并而成)利用离子阱(Trapped Ion)技术,提供了另一种验证双指数增长的视角。

5.1 离子阱的物理优势:全连接与长相干

离子阱技术利用电磁场悬浮单个原子作为量子比特。

全连接性(All-to-All Connectivity):与超导芯片只能与相邻比特通信不同,离子阱中的任意两个比特都可以直接发生相互作用。这极大地降低了编译复杂电路时的SWAP门开销,实际上等效于增加了有效电路深度 22。

高保真度:Quantinuum的H系列处理器拥有业界最高的单比特和双比特门保真度(>99.9%)23。

5.2 量子体积(Quantum Volume)的指数级实证

量子体积(QV)是IBM提出的一个综合指标,综合考虑了比特数、连通性、门误差率等因素。QV $\approx 2^{\text{有效比特数}}$。

5年承诺:2020年,Quantinuum承诺在5年内每年将QV提升10倍。

2025年里程碑:2025年,Quantinuum宣布其H2系统实现了量子体积 $2^{25}$(约3355万) 24。

验证双指数:如果QV每年增长10倍(即 $10^t$),考虑到 $QV \propto 2^n$,这意味着有效量子比特数 $n$ 随时间线性快速增长,而对应的希尔伯特空间复杂度则随QV线性增长(即随时间指数增长)。Quantinuum完美兑现了这一承诺,其实际数据点连成的曲线正是Neven定律的生动写照。

第六章 拓扑量子计算的曙光:微软的突破

如果说Google和IBM是在与噪声进行“阵地战”,那么微软(Microsoft)则试图通过物理原理的革新来“降维打击”——利用拓扑量子比特(Topological Qubits)。

6.1 马约拉纳零模与拓扑保护

微软的技术路线建立在**马约拉纳零模(Majorana Zero Modes)**之上。理论上,这种量子比特将信息编码在粒子的拓扑性质中,使其对局部的环境噪声具有天然的免疫力。

6.2 2024/2025年的重大突破

多年来,拓扑量子计算一直被认为是“永远还有30年”的技术。然而,2024年至2025年,Azure Quantum取得了一系列实质性突破:

Majorana 1处理器:微软发布了世界上首个由拓扑核心驱动的量子处理单元(QPU)27。

逻辑量子比特的虚拟化:微软与Quantinuum合作,在H2硬件上利用“量子比特虚拟化系统”(Qubit-Virtualization System),成功创建了12个高可靠性的逻辑量子比特 28。

800倍的提升:实验显示,这些逻辑量子比特的错误率比物理量子比特低800倍 29。

6.3 对分流曲线的影响

这一进展对Neven定律的意义在于,它可能改变指数增长的底数。目前的双指数增长受限于物理误差率的缓慢下降。一旦逻辑量子比特(特别是拓扑保护的逻辑比特)成为主流,误差率将出现阶跃式下降(Step-function drop),这将使得有效希尔伯特空间的扩张速度从“双指数”进一步加速,或者使当前的双指数增长曲线更加陡峭。

第七章 理论争议与噪声底限:怀疑论者的挑战

在庆祝“分流”的同时,必须审视来自学术界深处的怀疑声音。这些争议触及了量子计算的物理底限。

7.1 Gil Kalai的噪声敏感度理论

耶路撒冷希伯来大学的数学家Gil Kalai是量子计算最著名的怀疑论者。他提出的“噪声敏感度”(Noise Sensitivity)理论认为,对于非纠错的量子系统,随着系统规模的扩大,任何微小的噪声都会在输出分布中引起灾难性的偏差,最终导致系统输出与经典随机噪声无法区分 13。

Google的回应:Google的“相变”实验实际上是为回应Kalai而设计的。他们通过展示XEB在67比特规模下依然显著大于零,证明了系统没有退化为Kalai所预言的均匀分布。只要保持在“弱噪声相”,Kalai的灾难性坍缩就没有发生。

7.2 Scott Aaronson的“莱特兄弟”时刻

理论计算机科学家Scott Aaronson对Google的Willow和2024年成果给予了高度评价。他将2019年的实验比作“莱特兄弟的首次飞行”(虽短且无实用价值,但证明了原理),而将现在的阶段比作早期的航空工程时代——虽然还不能飞越在大洋,但飞机的升力原理(量子优势)已经被证实可以扩展 30。

Aaronson指出,现在的关键发现是保真度的衰减仅仅是指数级的,而不是双指数级或更糟。这听起来像是坏消息,但在复杂性理论中,只要保真度衰减的指数 $e^{-\epsilon n}$ 中的 $\epsilon$ 足够小,我们就可以通过多项式次数的重复采样来提取信号,从而维持量子优势。

7.3 经典模拟的“移动门柱”

经典模拟能力的提升(如NVIDIA的cuQuantum及各种TN算法)经常被用来否定量子霸权。但这是一个误解。Neven定律并不否认经典算法的进步,它强调的是两者增长率的导数差异。

经典算法的优化往往是线性的或低阶多项式的(例如利用GPU并行化),或者是针对特定浅层电路的启发式算法。而量子复杂度的增长是维度的指数级爆发。正如Google的图表所示,经典模拟成本曲线虽然在下移,但其斜率远低于量子硬件的发展斜率,两者的交点(交叉点)已经被不可逆地甩在身后。

第八章 2025及未来的技术路线图:分流的终局

展望未来,2025年及其后的路线图显示,这种“分流”将从实验室基准测试走向实际应用。

8.1 Google Willow与纠错的黎明

Google发布的Willow处理器(105量子比特)不仅是为了RCS,更是为了验证**表面码(Surface Code)**纠错 30。一旦Willow成功演示了随着物理比特增加、逻辑错误率下降的现象,Neven定律将进入一个新的阶段:从“含噪双指数”转向“纠错指数”增长。

8.2 IBM Nighthawk与互连规模

IBM计划推出的Nighthawk处理器将重点放在**门容量(Gate Capacity)**上,目标是支持5000个以上的双比特门操作 33。这标志着从单纯堆砌比特数转向提升电路的“有效体积”。其长程耦合器技术将进一步打破晶格限制,模拟更复杂的拓扑结构。

8.3 结论:现实的双指数

综上所述,关于“量子处理器性能正以‘双指数速率’与经典能力分道扬镳”的观点,得到了2023-2025年间西方权威科研成果的强有力支持。

物理实证:Google的“相变”实验确立了“弱噪声相”的存在,证明了量子复杂性在含噪设备中是可以维持的,打破了“噪声导致经典化”的怀疑。

工程实证:Quantinuum的量子体积每年10倍增长、IBM的误差缓解技术在《Nature》上的发表,提供了双指数增长的工程数据点。

算法实证:微软的逻辑量子比特虚拟化展示了跨越物理误差底限的可能性。

我们正处于一个历史性的转折点。经典计算依然强大,但在处理特定高熵、高纠缠问题时,量子计算机已经跨越了那道不可见的“复杂性悬崖”。Neven定律所描述的“突然进入一个新世界”,不再是未来的预言,而是正在发生的现实。

表 1:关键“分流”实验参数对比(基于西方权威来源)

*注:IBM实验针对动态电路演化,不适用固定深度RCS比较。

表 2:相变物理模型解析 4

引用索引

1

Works cited

Neven's Law: The Doubly Exponential Surge of Quantum Computing - PostQuantum.com, accessed November 20, 2025,

Quanta: “Neven's Law” forecasts quantum supremacy - Finadium, accessed November 20, 2025,

A New Law to Describe Quantum Computing's Rise? - Quanta Magazine, accessed November 20, 2025,

Phase Transitions in Random Circuit Sampling - arXiv, accessed November 20, 2025,

Google and IBM Clash Over Milestone Quantum Computing Experiment | Quanta Magazine, accessed November 20, 2025,

On “quantum supremacy” | IBM Quantum Computing Blog, accessed November 20, 2025,

Validating random circuit sampling as a benchmark for measuring quantum progress, accessed November 20, 2025,

Survey on Computational Applications of Tensor-Network Simulations - IEEE Xplore, accessed November 20, 2025,

Breakthrough achievement: Efficient simulation of Google's 53-qubit sycamore quantum circuit | EurekAlert!, accessed November 20, 2025,

Simulation of Quantum Circuits Using the Big-Batch Tensor Network Method, accessed November 20, 2025,

arXiv:2103.03074v1 [quant-ph] 4 Mar 2021, accessed November 20, 2025,

arXiv:2111.03011v2 [quant-ph] 28 Aug 2022, accessed November 20, 2025,

The Case Against Google's Claims of “Quantum Supremacy”: A Very Short Introduction., accessed November 20, 2025,

The Argument Against Quantum Computers - Quanta Magazine, accessed November 20, 2025,

[2510.06324] Classically Sampling Noisy Quantum Circuits in Quasi-Polynomial Time under Approximate Markovianity - arXiv, accessed November 20, 2025,

[2510.06346] Limitations of Noisy Geometrically Local Quantum Circuits - arXiv, accessed November 20, 2025,

Noise Limits Quantum Advantage, Simplifies Classical Simulation, accessed November 20, 2025,

Evidence for the utility of quantum computing before fault tolerance - RIKEN iTHEMS, accessed November 20, 2025,

New IBM, UC Berkeley paper shows path toward useful quantum | IBM Quantum Computing Blog, accessed November 20, 2025,

IBM Unveils 156-Qubit 'Heron R2' Quantum Processor - PostQuantum.com, accessed November 20, 2025,

The 2024 IBM Research annual letter, accessed November 20, 2025,

For the First Time Ever, Quantinuum's New H2 Quantum Computer Has Created Non-Abelian Topological Quantum Matter and Braided its Anyons, accessed November 20, 2025,

Our Trapped Ion Quantum Computers | System Model H2 - Quantinuum, accessed November 20, 2025,

Quantum Volume - Quantinuum, accessed November 20, 2025,

Quantinuum Achieves Quantum Volume of 2²⁵ on System Model H2, accessed November 20, 2025,

Quantinuum Dominates the Quantum Landscape: New World-Record in Quantum Volume, accessed November 20, 2025,

Microsoft unveils Majorana 1, the world's first quantum processor powered by topological qubits, accessed November 20, 2025,

Microsoft and Quantinuum create 12 logical qubits and demonstrate a hybrid, end-to-end chemistry simulation - Microsoft Azure Quantum Blog, accessed November 20, 2025,

How Microsoft and Quantinuum achieved reliable quantum computing, accessed November 20, 2025,

December 2024 - Shtetl-Optimized, accessed November 20, 2025,

Quantum Computing: Between Hope and Hype - Shtetl-Optimized, accessed November 20, 2025,

List of quantum processors - Wikipedia, accessed November 20, 2025,

IBM Delivers New Quantum Processors, Software, and Algorithm Breakthroughs on Path to Advantage and Fault Tolerance, accessed November 20, 2025,

Quantinuum extends its significant lead in quantum computing, achieving historic milestones for hardware fidelity and Quantum Volume, accessed November 20, 2025,

arXiv:2304.11119v2 [quant-ph] 22 Dec 2023, accessed November 20, 2025,