关闭广告

高效训练新标杆!华人开源原生VLM-NEO,以少数据追平顶级模型

DeepTech深科技1798人阅读

当下主流的视觉语言模型(Vision-Language Models, VLM),通常都采用这样一种设计思路:将预训练的视觉编码器与大语言模型通过投影层拼接起来。这种模块化架构成就了当前 VLM 的辉煌,但也带来了一系列新的问题——多阶段训练复杂、组件间语义对齐成本高,不同模块的扩展规律难以协调。

由南洋理工大学 S-Lab 助理教授刘子纬领导的联合团队最近提出了 NEO,试图用另一种思路解决这些问题。这项工作试图回答一个根本性问题:如果不依赖预训练的视觉编码器,能否构建出与顶级模块化 VLM 相媲美的原生统一架构?


图丨相关论文(来源:arXiv)

在传统方法中,视觉编码器通常基于 CLIP 或 SigLIP 等预训练模型,这些编码器虽然在视觉理解上表现出色,但其固有的语义偏置会限制模型在特定任务上的灵活性。

更重要的是,视觉编码器和语言模型之间存在天然的“代沟”——前者采用双向注意力机制来捕捉图像中的全局关系,后者则使用因果注意力进行文本的自回归生成。这种架构上的不匹配使得多阶段训练不仅复杂,还需要大量的对齐数据来弥合两个模态之间的鸿沟。

原生 VLM 的探索并非由 NEO 首创。早期的 Fuyu、EVE 就开启了这条路,但它们所面临的一个重要问题是:如何在语言模型内部高效构建视觉表征?这个过程往往效率低下、训练不稳定,甚至会破坏原有的语言能力。后续研究尝试用知识蒸馏、混合训练数据或专家系统来缓解,但始终未能触及核心问题。NEO 的团队认为,问题的根源在于没有从根本上为多模态重新设计模型的基础组件。

NEO 团队的方案是构建一个统一的原生基元(Native VLM Primitive),这个基元同时具备视觉编码、跨模态对齐和多模态推理的能力。具体而言,NEO 引入了三项关键创新:多头原生注意力(Multi-Head Native Attention, MHNA)、原生旋转位置编码(Native Rotary Position Embeddings, Native-RoPE)以及 Pre-Buffer 和 Post-LLM 的两阶段架构设计。


图丨原生视觉-语言框架概览(来源:arXiv)

在注意力机制的设计上,NEO 采用了一种混合策略。对于图像 token,模型使用双向注意力,允许每个视觉 token 与图像中的所有其他 token 进行交互,这保留了视觉编码器捕捉全局空间关系的能力。而对于文本 token,则沿用传统的因果注意力,确保自回归生成的有效性。这种“帧级双向、词级因果”的混合注意力机制,让 NEO 能够在同一个统一架构中同时处理视觉的全局理解和语言的序列生成。

位置编码是 NEO 的另一个创新点。传统 VLM 在处理图像和文本时,往往简单地将预训练 LLM 的一维旋转位置编码(Rotary Position Embeddings, RoPE)扩展到二维或三维空间,但这种做法会破坏 LLM 原有的建模模式,损害其语言能力。NEO 采用的 Native-RoPE 则完全解耦了时间(T)、高度(H)和宽度(W)三个维度的索引和频率分配。


图丨NEO 框架(来源:arXiv)

对于文本,模型保持原有的时间维度索引,而将高度和宽度维度的索引置零;对于图像,每个视觉 token 拥有固定的时间索引和独特的空间坐标。这种设计不仅保持了与预训练 LLM 的兼容性,还能更好地捕捉图像中的局部语义依赖关系。

在训练策略上,NEO 采用了 Pre-Buffer 和 Post-LLM 的分离式预训练。Pre-Buffer 负责从头学习视觉感知,而 Post-LLM 则继承预训练 LLM 的强大语言能力和推理能力。在预训练阶段,Post-LLM 的参数被冻结,仅训练 Pre-Buffer 和新增的 Query-Key 头维度及归一化层。

这种设计既保护了 LLM 的语言知识不被低质量的图像-文本对破坏,又允许 Pre-Buffer 在大规模视觉数据上进行充分的学习。到了中期训练和监督微调阶段,Pre-Buffer 和 Post-LLM 被合并为一个统一的单体架构,模型能够自主地在编码、对齐和推理之间分配计算资源。

此外,Pre-Buffer 本身具有可复用性。这个经过大规模视觉数据预训练的模块可以作为开源资源,帮助后续研究者以更低的成本将新的 LLM 适配为 VLM。

值得注意的是,NEO 在训练效率上展现出令人惊讶的表现。整个预训练阶段仅使用了 3.45 亿图文对,这个数据规模远小于主流模块化 VLM 动辄数十亿的训练数据。在中期训练阶段,NEO 使用 4000 万样本进行视觉-语言对齐的强化;监督微调阶段则使用约 400 万条高质量指令数据。总计不到 4 亿的训练样本,NEO-2.2B 和 NEO-9B 两个版本就达到了与顶级模块化 VLM 相当的性能水平。


图丨与其他模块化和原生 VLM 的基准测试比较(来源:arXiv)

在多项标准评估基准上,NEO 的表现出色。在 MMMU(多学科多模态理解与推理)测试中,NEO-2.2B 获得了 48.6 分,超过了 InternVL2.5(43.6 分)和 HoVLE(32.2 分)等原生 VLM 竞品。

在文档理解任务如 AI2D 和 DocVQA 上,NEO-2.2B 分别达到 80.1 分和 89.9 分,接近甚至超过了一些采用强化学习的模块化模型。更大的 NEO-9B 版本在多个基准上的表现更加出色,在 MMBench 上获得 82.1 分,在 AI2D 上达到 83.1 分,与使用数十亿训练数据的 Qwen2-VL 和 InternVL2.5 处于同一竞争梯队。

当然,NEO 也还存在一些局限性。在知识密集型和 OCR(光学字符识别)重度任务上,如 MMMU、InfoVQA 和 TextVQA 等测试中,NEO 的表现相对落后。NEO-9B 在某些 OCR 任务如 DocVQA 和 InfoVQA 上的表现甚至不如 NEO-2.2B,这表明当前的训练语料库在这些特定领域可能存在不足。

研究团队在论文中表示,这些局限性主要源于训练数据的规模和质量限制,而非架构本身的问题。如果能够获得更大规模、更高质量的训练数据,NEO 的潜力还有很大的提升空间。

参考资料:

1.https://arxiv.org/pdf/2510.14979v1

2.https://github.com/EvolvingLMMs-Lab/NEO

运营/排版:何晨龙

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

俄军空袭乌克兰首都基辅 供电供暖大范围中断

界面新闻 浏览 1194

图多尔:虽输给皇马但球队有战斗精神,将努力去赢得每一场比赛

懂球帝 浏览 1648

今年流行“洋葱式”穿法,这样穿高级又好看!

LinkFashion 浏览 1185

欧冠一夜4战!将有4队出线:头号黑马呼之欲出 2队晋级无忧

叶青足球世界 浏览 560

2026款丰田皇冠陆放上市 售28.48-33.28万元

车质网 浏览 1821

内外设计焕新 大众朗逸Pro将于11月17日上市

车质网 浏览 1586

9系大六座旗舰SUV又添一员,智己LS9预售33.69万起

网易汽车 浏览 1653

干货!拆解欧阳娜娜“美商开挂”的3个核心思路

黎贝卡的异想世界 浏览 1270

置换价17.99万起 奇瑞风云T11正式上市

网易汽车 浏览 1796

工信部:将会同有关部门加强养老服务机器人研发

IT之家 浏览 1427

申花2-0首尔获亚冠首胜!终结对韩国球队4场不胜 阿苏埃破僵+伤退

我爱英超 浏览 1680

黄金、白银价格暴涨暴跌,投资者要警惕暴富“陷阱”,戒除豪赌心态

时代周报 浏览 827

众星送别袁惟仁,前妻陆元琪露面表示不再怨恨,Ella哭到说不出话

萌神木木 浏览 361

“耳环风波”半年后 18岁黄杨钿甜首次发文

现代快报 浏览 6514

格陵兰岛各政党领导人:格陵兰人不想成为美国人

界面新闻 浏览 3791

国内首个海上可复用火箭基地开工 发射成本对标SpaceX

澎湃新闻 浏览 3935

寒风中南京数十名民工扒在桥栏上吃午饭 附近摊主发声

扬子晚报 浏览 3801

俄乌两国元首新年同时强硬 泽连斯基邀特朗普"直飞"乌

上观新闻 浏览 3958

镜报:阿联酋财团准备收购曼联股份,小贝或任此次收购代言人

懂球帝 浏览 1849

杨乐乐一个人回娘家过年!母亲住平价小区

凉湫瑾言 浏览 588

王鸥才是真清醒!住200平复式豪宅独自养娃

心静物娱 浏览 1294
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除
Copyright © 2020-2022,版权所有 qukanredian.com
沪ICP备20002587号-1