来源:半导体行业观察
2025-09-06 11:24:48
(原标题:博通百亿芯片大单,拉响GPU警报)
公众号记得加星标,第一时间看推送不会错过。
来源 :内容来自tomshardware 。
本周,博通(Broadcom)宣布已与一位未披露身份的客户签署协议,将供应价值 100 亿美元的 AI 数据中心硬件。订单内容包括为该客户特定工作负载量身定制的 AI 加速器,以及博通的其他相关硬件。外界普遍猜测,该客户正是 OpenAI,据称其计划将这些 AI 处理器用于推理任务。考虑到订单规模,可能意味着交付数量高达数百万颗 AI 处理器。
一如既往,博通并未透露这位神秘客户的名字。博通总裁兼 CEO 陈福阳(Hock Tan)在公司财报电话会上表示:
“上个季度,其中一位潜在客户已向博通下达量产订单,因此我们将其视作 XPUs 的正式客户。事实上,我们已经获得了超过 100 亿美元的基于 XPUs 的 AI 机架订单。”
硬件已准备就绪
虽然 100 亿美元的数字相当惊人,但公告中透露的细节更具分量。博通表示该客户已通过“资格认证”,意味着相关芯片及平台已通过客户验证,设计功能和性能均已锁定。所谓“下达量产订单”,则表明客户已从评估/原型阶段进入全面商业采购阶段。不过,博通的收入确认可能会在硬件交付或部署后才进行。
博通未透露客户身份,但表示将在 2026 财年第三季度(即 2025 年 8 月初结束)交付基于 XPU 的“AI 机架”。需要注意的是,这里的“机架”并非类似戴尔等厂商的整机,而是由博通提供的定制 AI 加速器(XPU)、网络芯片及参考级 AI 机架平台组成。这些产品更像是构建模块,供大型客户自行组装大规模 AI 基础设施。
对应 2026 年部署
若博通在 2026 年 6 月或 7 月交付硬件,客户最快可在同年秋季完成部署。这一时间窗口与此前的报道吻合:OpenAI 与博通合作开发的首款定制 AI 处理器预计将在 2026 年底至 2027 年初投入使用。
据悉,OpenAI 的定制 AI 芯片采用 脉动阵列(systolic array)架构 —— 由排列成行列的相同处理单元(PEs)组成,优化矩阵和/或向量计算。这与其他 AI 加速器类似。该芯片预计会使用 HBM 存储(可能是 HBM3E 或 HBM4),并基于台积电 N3 系列(3nm 级)工艺制造。
百亿美元大单
对 OpenAI 来说,单季度 100 亿美元的硬件投资堪称巨额,已跻身超大规模云厂商(hyperscaler)的级别。作为对比,Meta 在 2025 年的整体资本开支为 720 亿美元,其中大部分投向 AI 硬件;AWS 和微软也在每年持续投入数百亿美元。
以单颗加速器成本 5,000–10,000 美元计算,100 亿美元相当于 100–200 万颗 XPU,可能分布在数千个机架、数万个节点中。这一规模可与当前全球最大 AI 推理集群媲美,甚至可能超过 OpenAI 自身现有集群,从而显著提升其竞争力。
一直以来,OpenAI 的工作负载主要依赖微软 Azure 的 AMD 或 Nvidia GPU,如今其显然正向自研基础设施转型,采用博通定制芯片。这不仅有助于降低成本、优化推理性能,还能在未来与 AMD、Nvidia 谈判时获得更多筹码。
当然,前提是这 100 亿美元的订单确实来自 OpenAI。目前尚无官方确认。
https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-widely-thought-to-be-broadcoms-mystery-usd10-billion-custom-ai-processor-customer-order-could-be-for-millions-of-ai-processors
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4148期内容,欢迎关注。
加星标第一时间看推送,小号防走丢
求推荐
半导体行业观察
2025-09-06
半导体行业观察
2025-09-06
半导体行业观察
2025-09-06
半导体行业观察
2025-09-06
半导体行业观察
2025-09-06
半导体行业观察
2025-09-06
证券之星资讯
2025-09-05
证券之星资讯
2025-09-05
证券之星资讯
2025-09-05