关闭广告

MIT最新发现:这十年,算法进步被高估了

机器之心Pro78人阅读



机器之心报道

机器之心编辑部

在过去十年中,AI 的进步主要由两股紧密相关的力量推动:迅速增长的计算预算,以及算法创新。

相比之下,计算量的增长较容易衡量,但我们仍然缺乏对算法进步的清晰量化,究竟哪些变化带来了效率提升,这些提升的幅度有多大,以及它们在不同计算规模下是否依然成立。

2024 年,有研究通过分析数百个语言模型,他们估计在过去十年里,算法进步在所谓的有效计算量(effective compute)方面贡献了超过 4 个数量级的提升;而根据对历史 AI 文献的分析,计算规模本身增长了 7 个数量级。

具体而言,所有算法创新加起来使模型的效率提高了大约 22,000 倍,这意味着在理论上可以用少得多的浮点运算次数(FLOPs)达到相同的性能水平。

然而,我们仍然缺乏对这类进步的精确分解,而关于算法进步来源的许多关键问题仍未得到充分研究。例如:各种算法改进之间是如何相互作用的?算法进步是由一系列小改动累积而成,还是由少数几次重大突破推动的?算法改进是像摩尔定律那样平滑持续地发展,还是呈现间断平衡(即长时间停滞 + 突然大跳跃)的模式?

为回答这些问题,来自 MIT 等机构的研究者采用了三种互补的方法:

  • 对语言模型中的重要算法改进进行消融实验;
  • 开展 scaling 实验,以测量不同架构在最优 scaling 行为上的差异;
  • 对数据与参数 scaling 转换进行理论分析。



  • 论文地址:https://arxiv.org/pdf/2511.21622
  • 论文标题:On the Origin of Algorithmic Progress in AI

最终得到三条结论:

1:经过实验评估的大多数算法创新都只带来了小幅的、与规模无关的效率提升,总体计算效率提升不到 10 倍,并且在推算到 2025 年的计算能力极限(2 × 10²³ FLOPs)时,这些提升仅占总改进的不到 10%。这表明,与规模无关的算法进步在整体效率提升中所占的份额很小

2:本文发现有两项强烈依赖规模(scale-dependent)的算法创新:从 LSTM 到 Transformer,以及从 Kaplan 到 Chinchilla 。当将其外推到 2025 年的计算前沿时,这两项创新合计占据了全部效率提升的 91%。这意味着:对于小规模模型而言,算法进步的幅度比此前认为的要小几个数量级。

3:在规模依赖型创新的情况下,效率提升不仅需要持续的计算投入,而且算法进步的速度还强烈依赖于你选择的参考算法。换句话说,相对于某一个基线算法,连续模型之间的进步率可能看起来是指数级的;但相对于另外一个基线算法,它却可能完全为零。

总体来看,这些发现表明:算法进步可能本质上就是依赖规模的,要真正体现其效益需要不断增长计算规模。同时,这也意味着算法进步对大模型开发者的益处远大于对小规模参与者的益处。



规模不变型算法

本文首先通过大量的消融实验来分析单个算法的影响,从而绘制出算法改进的细粒度图景。此外,本文还尝试估计了多项算法组合后的联合效果。

本文发现:原始论文(即提出某项算法改进的那篇论文)所声称的效率提升,往往远高于后续文献给出的估计,也高于本文的实验结果。



规模不变型算法的效率提升既小且分布高度不均

实验中发现,从 LSTM 切换到 Modern Transformer 的总效率提升为 6.28×,而从 LSTM 切换到 Retro Transformer 的效率提升为 4.69×。这比 Ho 等人(2024)的估计(他们认为 LSTM→Transformer 的提升约 60×)小得多。

虽然本文确实观察到一些改进(例如 Adam 优化器、以及从 post-layernorm 切换到 pre-RMSNorm)带来了大约 2× 的效率提升,但作者测量的大多数创新带来的提升都很小。

有趣的是,他们看到一个高度偏斜的效率提升分布:尽管所有被消融的创新带来的提升都低于 4×,但提升倍数却极不均匀,主要集中在少数几项改进上,例如 Adam 或 pre-layernorm。

从这个角度来看,算法进步比之前想象的更加断裂 / 不连续:多年小幅改进之后,会出现一次较大的算法跃迁。

许多改进的效率提升幅度很小,这也推动本文开展第二部分实验,比较算法变化在不同规模下的影响,从而揭示这些变化对神经网络 scaling laws 的作用。

依赖于规模的算法

前文提到,算法改进在小规模模型上带来的收益非常有限。因此自然会产生一个问题:在大规模下,算法收益会变得更大吗?

因此,本文对不同架构、优化器,以及算法创新进行了 scaling 实验,以更好地理解它们的效率提升如何随计算规模变化。

实验模型主要为 LSTM、Transformer,以及两种 Transformer 变体:Modern Transformer、Retro Transformer。

规模扩展实验:从 LSTM 到 Transformer

图 4A 展示了 LSTM 与现代 Transformer 在 scaling 上的差异,图 4B 展示了现代 Transformer 与 Retro Transformer 的 scaling 差异。



Scaling 图表表明,神经网络架构的改进并不是规模不变的,而是具有随规模增加而回报提升的特性(increasing returns to scale)。

算法进步强烈依赖于算力规模与参考基线

算法进步可能主要由算力提升所驱动

本文提出一个疑问:此前将算法进步与时间挂钩的说法,是否其实是由算力投入的持续增长所驱动?

已有估计表明,前沿模型的计算预算正以每年 4.2 倍的速度呈指数增长。因此,随着算力预算呈指数级提升,算法进步的速率可能更多是受这一规律性的算力扩张所推动,而不是源于不断涌现的算法创新。

本文发现:在 2017–2025 年间,几乎所有可解释的算法进步都来自两项规模依赖型的创新:从 LSTM 换成 Transformer,以及从 Kaplan 换成 Chinchilla 的训练策略。其他所有算法改进加起来只占很小一部分。

在总计 21,400 倍(相对于 LSTM 模型)的性能提升中,本文发现 846 倍的提升是通过从 LSTM 模型转向 Kaplan Transformer 模型实现的,而近 10 倍的提升则归功于 Chinchilla 调整训练策略。这两项创新共同构成了总相对效率提升的 91%。



算法进步的速度,取决于你拿谁当对照组

如果算法变得更强,是不是意味着进步更快,其实这完全取决于你选谁来当参照物。换个参照物,算法进步的速度立刻就变了。

因为有些算法改进是规模依赖型(scale-dependent) 的:在大模型、大算力下提升巨大;但在小模型、小算力下几乎没作用。

这导致一个有趣现象:如果你用 LSTM 当参照:Transformer 系列(尤其是更大模型)会显得算法进步是指数增长的(论文测到一年增长率大约 63%,非常快);但如果你用 Transformer 自己当参照,随着规模变大,你只看到算法只比以前好 2 倍,几乎没增长。

也就是说:换个对照组,算法进步就从指数增长变成增长幅度很少。



版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

“北溪”爆炸案一嫌疑人被引渡至德国受审

极目新闻 浏览 195

大型SUV“搅局者”:奇瑞风云T11叫板头部玩家

一品汽车 浏览 513

澳大利亚和泰国纯电动汽车比例大幅增长,中企开始确保份额

界面新闻 浏览 14092

竟然人VS居然人,这是什么新标签?

时尚COSMO 浏览 743

美国政府进入史上"停摆"最长时间 特朗普表态

红星新闻 浏览 2127

71岁TVB女星与老公,经历流产后决定不生育

TVB剧评社 浏览 64

金秀贤新剧大翻车!凤凰男入赘豪门却盼着吃绝户,网友纷纷避雷

萌神木木 浏览 11041

87岁画家范曾有四段婚姻 亲生后代一女一子

红星新闻 浏览 122

霍家又陷争产风波:霍文芳起诉长房 曾被扫地出门

不八卦会死星人 浏览 13539

AI浪潮已至,重磅嘉宾云集,乌镇再启新汽车之问

AutoBusiness 浏览 417

学生喊"包的" 语文老师抵制网络烂梗发起"语言保卫战"

封面新闻 浏览 1704

男子收1300万元拆迁款后被控敲诈勒索获刑 终审无罪

极目新闻 浏览 4078

智己LS9上市32.28万起 两个Ultra都是高配

网易汽车 浏览 355

颜骏凌:武磊赛前对球队做了动员,我们争冠经验丰富没有包袱

懂球帝 浏览 513

美国11月ISM制造业PMI萎缩幅度创四个月最大,就业进一步收缩,价格涨

华尔街见闻官方 浏览 180

年入920亿,代工大佬收获一个IPO,市值超500亿

蓝鲸财经 浏览 11968

三季报丰收伴管理层大换血,洛阳钼业高光背后为何求变

华夏时报 浏览 555

为拍电影与父母闹掰的翁虹 不让女儿进娱乐圈

二妹扯娱 浏览 871

萨顿力挺凯恩:英格兰从未有过几个比他更好的球员

懂球帝 浏览 848

恩里克:登贝莱得流感了所以没来,我们已习惯这赛季没有他

懂球帝 浏览 48

国信策略:抢占科技发展制高点

网易财经 浏览 641
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除
Copyright © 2020-2022,版权所有 qukanredian.com
沪ICP备20002587号-1