关闭广告

刚刚,全球首个GB300巨兽救场!一年烧光70亿,OpenAI内斗GPU惨烈

新智元831人阅读


新智元报道

编辑:桃子

【新智元导读】为了争夺有限的GPU,OpenAI内部一度打得不可开交。2024年总算力投入70亿美元,但算力需求依旧是无底洞。恰恰,微软发布了全球首台GB300超算,专供OpenAI让万亿LLM数天训完。

过去一年,OpenAI在算力上斥资70亿美元。

其中,大模型研发占了最大头——50亿美元,而推理计算仅用了20亿美元。


可见,LLM训练正吞噬无尽的算力,这也是OpenAI最近一直在大举扩展超算建设与合作的重要原因。

采访中,OpenAI总裁Greg Brockman坦言,「内部如何分配GPU,简直就是一场痛苦与煎熬」。

OpenAI各个团队争抢GPU,那叫一个激烈。最头疼的是,如何去合理分配。


如今,甲骨文、英伟达、AMD等芯片巨头/云服务巨头,纷纷与OpenAI联结,能够解其燃眉之急。

这不,就连曾经最大的「金主爸爸」微软也上阵了。

纳德拉官宣,全球首个配备4600+ GB300的超算率先上线,专攻OpenAI。预计,未来将扩展到十万块GPU。


英伟达称,这一算力巨兽,可以让OpenAI不用数周,仅在数天内训练万亿参数模型。


全球首台GB300超算

数天训出万亿LLM

就在昨天,微软Azure宣布成功交付了,全球首个生产级超大规模AI集群。

它搭载了超4600个GB300 NVL72,配备通过下一代InfiniBand网络互联的Blackwell Ultra GPU。


今年早些时候,微软曾推出GB200 v6虚拟机(VM),通过大规模GB200 NVL2集群,已在OpenAI内部训练部署得到应用。

这一次,GB300 v6虚拟机再次树立了行业标杆。

该系统基于机架级设计,每个机架包含18个虚拟机,共计72个GPU:

  • 72个Blackwell Ultra GPU,搭配36个Grace CPU

  • 通过下一代Quantum-X800 InfiniBand,实现每GPU 800 Gb/s的跨机架横向扩展带宽(2x GB200 NVL72)

  • 机架内130 TB/s的NVLink带宽

  • 37TB高速内存

  • 高达1,440 PFLOPS的FP4 Tensor Core性能


全新设计,为大规模AI超算而生

为打造出最强超算,微软对计算、内存、网络、数据中心、散热和供电等技术栈的每一层,都进行了重新设计。

机架层:低延迟高吞吐

通过NVLink和NVSwitch,GB300 v6在机架层面实现了高达130TB/s的机架内数据传输速率,连接了总计37TB的高速内存,由此消除了内存和带宽瓶颈。

在大模型和长上下文场景下,推理吞吐量大幅提升,为AI智能体和多模态AI带来前所未有的响应速度和扩展性。

同时,Azure部署了采用当今最快网络 fabric——Quantum-X800 Gbp/s InfiniBand——的全连接胖树(fat-tree)无阻塞架构,能够跨机架扩展数万个GPU。

此外,Azure散热系统采用独立的「散热器单元」和「设施级冷却方案」。

在为GB300 NVL72这类高密度、高性能集群保持热稳定性的同时,最大限度地减少了水资源消耗。

软件层:全面优化

不仅如此,微软为存储、编排和调度重构的软件栈也经过全面优化,能够在超算规模上充分利用计算、网络、存储和数据中心基础设施,提供前所未有的高性能和高效率。


OpenAI GPU争夺战

一场「痛苦与煎熬」

在OpenAI内部,正上演一场GPU激烈争夺战。


上周四,Greg在一期「Matthew Berman」播客节目中,自曝管理算力资源分配的过程,令人揪心且筋疲力尽。

这太难了,你总能看到各种绝妙的点子,然后又有人带着另一个绝妙的点子来找你,你心想,这个也太棒了。

在OpenAI内部,将算力资源主要分配给「研究」和「应用产品」两个方向。


为了应对算力分配的挑战,OpenAI建立了一套相对清晰的资源分配机制:

  • 高层决策:由奥特曼和Fidji Simo组成的领导团队,决定研究团队与应用团队之间的总体算力划分;

  • 研究团队内部协调:首席科学家和研究负责人,决定研究团队资源分配;

  • 运营层:由Kevin Park领导的小型内部团队负责GPU的具体分配和调动。


OpenAI复杂算力关系网络图

Greg提到,当一个项目接近尾声时,Kevin会重新分配硬件资源,以支持新启动的项目。

算力驱动着整个团队的生产力,此事干系重大。

大家对此都非常在意。人们对「我能否分到算力」这件事所投入的精力与情感强度远超想象。

一直以来,OpenAI多次公开表达其对算力永不满足的需求。

OpenAI首席产品官Kevin Weil曾表示,「我们每次拿到新的 GPU,它们都会被立刻投入使用」。

OpenAI对算力的需求逻辑很简单——

GPU的数量直接决定了AI应用的能力上限。获得的GPU越多,所有人就能使用越多的AI。


不仅OpenAI,整个行业科技巨头也在加码算力投入。小扎透露,Meta正将「人均算力」打造为核心竞争优势。


上个月,奥特曼称,OpenAI正在推出「算力密集型服务」。

当我们以当前模型的成本,将海量算力投入到有趣的新想法上时,能创造出怎样的可能性?

这场算力争夺战中,谁手握最多的算力,将决定谁在AI竞赛中脱颖而出。

参考资料:

https://x.com/satyanadella/status/1976322455288545343

https://x.com/Azure/status/1976319720472138045 https://azure.microsoft.com/en-us/blog/microsoft-azure-delivers-the-first-large-scale-cluster-with-nvidia-gb300-nvl72-for-openai-workloads/

https://www.businessinsider.com/openai-president-allocate-gpu-compute-internally-greg-brockman-2025-10

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

本-福斯特谈C罗:他的确是弗格森的宠儿,因为他实在太出色了

懂球帝 浏览 789

顶着巨亏也要上!车企进击自动驾驶:理想长城剑指百城NOA

时代财经 浏览 13196

做企业,是一场反人性的修炼

创业家 浏览 632

中方回应美100%关税威胁:动辄以高额关税进行威胁,不是与中方相处的正确之道

环球网资讯 浏览 827

爱马仕女骑士无需披甲,却最为强大

时尚COSMO 浏览 841

香港五级大火令人揪心 一众明星发声

天启大世界 浏览 257

Rivian R3亮相 提供三电机版套壳R2 售价低于4.5万美元

智车情报局 浏览 10239

阿维塔第21万辆正式下线

三言科技 浏览 574

女生想穿得清凉点,怎么不被指指点点?

YOKA网 浏览 14941

我国突破固态电池关键技术瓶颈

大象新闻 浏览 843

9.4分剧王回归,封神到最后一秒

独立鱼 浏览 828

这个赛季,NBA的玄学将被终结

虎嗅APP 浏览 658

高市闯了大祸日方意识到大事不妙 中国有权在日本驻军

时时有聊 浏览 1653

15年离婚拉锯落幕,“中国巴菲特”失去沃华医药实控权

野马财经 浏览 418

20名以色列被扣押人员将分两批获释

CCTV国际时讯 浏览 881

丰田新款Land Cruiser FJ最新消息曝光

乐选爱车 浏览 590

男子夜钓被误认为是猎物头部遭枪击 20余天仍昏迷不醒

极目新闻 浏览 2288

淘宝闪购新工服需骑手自费购买?平台回应来了!

雷科技 浏览 487

泽连斯基坐上模拟设备体验操纵F-16

环球网资讯 浏览 12492

"河南一面粉厂称不收今年新小麦"引热议 当地政府回应

上游新闻 浏览 66311

通义实验室负责人周靖人成为阿里合伙人;小米澎湃 OS 全球版性能追平中国版 | 早资道

封面新闻 浏览 66
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除
Copyright © 2020-2022,版权所有 qukanredian.com
沪ICP备20002587号-1