关闭广告

ImageNet分数越高,生成反而越糊?iREPA给出解释

新智元449人阅读


新智元报道

编辑:倾倾

【新智元导读】学霸的谎言被揭穿!一篇来自Adobe Research的论文发现,高语义理解并不会提升生成质量,反而可能破坏空间结构。用iREPA简单修改,削弱全局干扰,生成质量立即飙升 。

我们经常会疑惑:为什么视觉模型越高级,生成效果反而越差?

最近,Adobe Research发了一篇论文,专门解释了这个看起来有点反常、但反复出现的现象。


论文地址:https://arxiv.org/pdf/2512.10794

按直觉,模型要先知道「这是什么」,才能把它画出来。

ImageNet上的分类准确率越高,说明模型的语义理解越强,生成的内容越稳定、越靠谱。

但这篇论文给出的结果,完全相反:

一些在识别任务中表现平平、甚至看起来「很不聪明」的视觉编码器,反而能生成出结构更清晰、质量更高的图像。

全局语义能力越强,生成反而越容易出问题。

很可能我们从一开始,就误会了生成模型真正擅长的是什么。


为什么视觉模型越「聪明」,生成的反而越差?

先看一个已经被反复验证的事实:一个模型在ImageNet上的线性探测准确率越高,并不意味着它更适合用来做生成。

最直观的例子是SAM2。这是一个在识别任务里不出彩的模型,验证准确率只有24.1%,远低于主流视觉大模型。

但当这些编码器被用于REPA时,SAM2的生成质量反而优于一批准确率高出约60%的模型。


SAM2的ImageNet验证准确率仅为24.1%,但在REPA框架下的生成gFID明显优于多种准确率超过70%的视觉编码器。

这还不是某一个模型的偶然表现。

论文进一步比较了同一编码器家族中不同规模的模型,结果发现:模型越大、分类准确率越高,生成质量反而可能相似或更差。


随着模型规模和分类准确率提升,生成gFID反而整体变差,表明这一现象并非由个别模型导致。

显然,「高语义能力=好生成」这条默认路径,在大量实验中并不成立 。

更关键的是,这种现象并不是噪声。

在跨模型、跨设置的系统性分析中,全局语义指标与生成质量之间的相关性始终非常弱。


分类能力与生成质量几乎无关,空间结构却高度相关。左:线性探测准确率与生成 gFID 的相关性极弱(Pearson r=-0.26)。中:空间结构指标(LDS)与生成质量呈现出显著强相关(Pearson r=-0.85)。右:基于空间结构改进的iREPA,在多种编码器上稳定优于REPA。

论文进一步对多种视觉编码器做了相关性分析,结果非常明确:

线性探测准确率与生成质量之间几乎不存在相关性。

相比之下,反映patch空间结构的指标,与生成质量呈现出极强的正相关关系。

如果不是「懂得多」,那生成模型到底依赖的是什么?

反复确认会压扁空间结构

在理解了「高语义≠好生成」之后,真正的问题变成了:

为什么模型越是反复确认,生成反而越容易出问题?

关键就是,全局语义会在生成过程中压扁空间结构。

在生成任务中,模型并不是一次性输出图像,而是在训练和采样过程中,不断对局部patch之间的关系做判断。

论文将这种能力概括为「空间结构」:即相邻patch之间应保持更高相似性,而远处patch不应被全局语义过早拉近。

但当模型过度追求全局语义一致性,比如通过CLS token ,或对所有patch做全局平均来强化「这是什么」,这些局部差异就会被系统性地削弱。

这种做法会导致一个直接后果:前景物体的patch,与本应无关的背景patch之间,出现异常高的相似性。

空间对比度下降,边界变得模糊,生成结果因此糊成一片。


PE-G和WebSSL-1B在ImageNet上具有更高的分类准确率,但它们的空间自相似性显示,前景与背景被过度拉近,边界模糊。相比之下,空间结构更清晰的SpatialPE-B,生成质量显著更好。

研究员向模型中逐步加入全局语义信息,观察分类能力和生成质量的变化。

结果如下图所示:


增强全局语义信息会损害生成质量

随着全局信息权重α从0增加到0.5,模型的线性探测准确率持续上升。

但生成质量却显著下降,FID明显恶化。

也就是说,「更懂这是什么」确实在发生;但与此同时,模型也失去生成所依赖的空间结构。

这并不是优化不充分的副作用,而是因为全局语义在生成阶段扮演了一个「过强约束」的角色。

它让模型更快达成结论,却也更早放弃了对局部结构的精细刻画。

既然语义会干扰生成,iREPA选择退后一步

如果说前面的实验回答了「问题出在哪」,那 iREPA 回答的就是另一个问题:

既然全局语义会干扰生成,那该怎么对齐表示,才不会把结构压扁?

iREPA给出了答案。它对原本的REPA训练流程做了两处非常简单的修改,总共不到四行代码 。

第一处,是投影方式的改变。

在标准REPA中,patch表征通常会经过MLP投影层进行对齐。

但论文指出,MLP在这一过程中容易混合不同位置的信息,无意中削弱了空间对比度 。

因此,iREPA用一个3×3的卷积层(padding=1)替换了MLP投影。

卷积的归纳偏置能保留局部邻域关系:相邻patch的相互影响被保留,远处区域则不会被过早混在一起 。

第二处修改,直接针对全局语义。

iREPA在对齐过程中引入了一个空间归一化层,移除了patch特征中的全局均值分量 ,让模型专注于局部之间的差异与边界。


iREPA如何通过两处修改,恢复生成所需的空间结构。 (a) 使用卷积投影替代MLP,可更好地保留局部空间关系。 (b) 空间归一化层通过移除全局分量,提高patch之间的空间对比度。 (c) 经过这两步修改后,iREPA生成的diffusion特征呈现出更清晰的空间结构。

正是这两点改动,让iREPA在机制上与前一节的问题形成了严格对应:

全局语义太强会抹平结构,那就在对齐阶段削弱全局分量、强化空间关系 。

结果也在意料之中。

无论是在ImageNet规模的生成任务,还是更高分辨率的设置,亦或是文本到图像的多模态生成任务中,iREPA都表现出更快的收敛速度和更好的最终生成质量。

更重要的是,这种提升并不依赖于某一个特定编码器。

在不同模型规模、不同视觉骨干网络、不同训练设置下,iREPA都能稳定改进。

这不仅是一个技巧,而是顺着生成任务本身对结构的需求,把表示对齐这件事做得更克制、更精细。

很多时候,我们讨论生成模型时,会下意识沿用一个标准。

但这篇论文提醒了我们,生成并不是理解的自然下游。

对生成来说,最重要的并不是「这是什么」,而是「哪些地方该靠近,哪些地方该分开」。

当我们一味强化全局语义,反复催促模型给出答案,其实是在替它提前下结论。

iREPA并没有试图让模型变得更聪明。它做的更像是退后一步,把空间还给空间,把结构还给结构。

结果不是理解能力的飞跃,而是生成质量的回归。

参考资料:

https://x.com/1jaskiratsingh/status/2000701128431034736?s=20

https://end2end-diffusion.github.io/irepa/

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定新智元极速推送!

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

威刚展示SD 8.0标准SDXC存储卡:顺序读取1.6 GB/s

IT之家 浏览 257

英特尔CEO预测个人电脑市场趋势:下半年将持续复苏

手机中国 浏览 13489

妈妈辈如何穿出“贵气感”?4个打扮习惯,轻松提升优雅气质

静儿时尚达人 浏览 1214

吉利陈奇:L3全场景普及仍需时间,安全与成本平衡是行业关键

网易汽车 浏览 879

加拿大留学7年,95后小伙回杭开奔驰摆摊卖盒饭!“大家都只活一次,重要的就是体验生活”

都市快报橙柿互动 浏览 643

董路:中国足球是学渣!不用请高水平教练,米卢80多岁还能来捞钱

念洲 浏览 1123

巴黎高定时装周10大看点

LinkFashion 浏览 16226

麒麟信安与智慧眼达成战略合作 共推AI+操作系统融合应用

财闻 浏览 1172

说它抄袭,打脸了吧

独立鱼 浏览 250

杨振宁获诺奖速度纪录至今未破 提出理论到获奖仅1年

澎湃新闻 浏览 4840

牛弹琴:英国"动真格"了 王子被"大义灭亲"剥夺头衔

上游新闻 浏览 3879

美专家:中方赴沙特参会 不代表同意乌克兰寻求的结果

环球网资讯 浏览 13495

孙宏斌逃出生天

创业家 浏览 1030

深圳这个人气指标,又爆表了!

博闻财经 浏览 441

全球首个飞行汽车量产工厂试产,何小鹏官宣:期望在2026年量产机器人

商用车头条 浏览 861

乐道汽车全年累计交付破10万台 成交均价升至25万+

网易汽车 浏览 325

铁威马推出雷电5移动固态硬盘盒D1 SSD Pro

IT之家 浏览 571

仅2.2万,王晶贺岁档新片票房崩塌,我感慨:观众不再为情怀买单

靠谱电影君 浏览 13

对话黑芝麻高管:不烧钱造新芯,机器人平台发布前已经创收

车东西 浏览 674

聂远不让女儿雨天上学,黄磊女儿满口错别字,怪不得星二代要进圈

萌神木木 浏览 573

海博思创400多亿市值背后,留美博士张剑辉的逆袭之路

尺度商业 浏览 457
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除
Copyright © 2020-2022,版权所有 qukanredian.com
沪ICP备20002587号-1