来源:半导体行业观察
2025-06-23 10:14:39
(原标题:ASIC大热,英伟达慌吗?)
公众号记得加星标⭐️,第一时间看推送不会错过。
来源:内容来自野村。
据报道,追随谷歌的脚步,Meta 正在全面进入 ASIC(专用集成电路)竞赛。根据野村证券分析师 Anne Lee 及其团队的最新研究报告,Meta 在 AI 服务器领域的雄心正在迅速升级。他们专有的 ASIC 服务器项目 MTIA 预计将在 2026 年实现重大突破,这可能会挑战 Nvidia 长期以来的市场主导地位。
报告援引最新的供应链信息称,Meta 计划在 2025 年底至 2026 年期间推出数百万颗高性能 AI ASIC 芯片(100 万至 150 万颗)。与此同时,Google 和 AWS 等云服务巨头也在加速部署其自研 ASIC。这表明 AI 服务器市场的竞争格局正在悄然转变。
ASIC 芯片热潮:明年出货量可能超过英伟达
报告显示,英伟达目前持有 AI 服务器市场价值的 80% 以上,而 ASIC AI 服务器仅占 8-11%。
然而,从出货量的角度来看,情况正在发生变化。到 2025 年,谷歌的 TPU 出货量预计将达到 15-200 万台,亚马逊 AWS Trainium 2 ASIC 约为 14-150 万台,而英伟达的 AI GPU 供应量将超过 5-600 万台。
供应链调查显示,Google 和 AWS 的 AI TPU/ASIC 的总出货量已经达到 Nvidia AI GPU 出货量的 40-60%。
随着 Meta 于 2026 年开始大规模部署其自主开发的 ASIC 解决方案,Microsoft 将于 2027 年开始大规模部署,预计 ASIC 总出货量将在 2026 年的某个时候超过英伟达 GPU 出货量。
Meta 的 MTIA 雄心壮志:超越 Nvidia 的 Rubin 规范
Meta 的 MTIA 项目是当前 ASIC 浪潮中最受期待的案例之一。
供应链数据显示,Meta 将于 2025 年第四季度推出其首款 ASIC 芯片 MTIA T-V1。它由博通设计,具有复杂的主板架构(36 层高规格 PCB),并采用液冷和风冷混合技术。负责组装的制造商包括 Celestica 和 Quanta。
到 2026 年年中,MTIA T-V1.5 将进行进一步升级,芯片面积将翻倍,超过英伟达下一代 GPU Rubin 的规格,其计算密度将直接接近英伟达的 GB200 系统。2027 年的 MTIA T-V2 可能会带来更大规模的 CoWoS 封装和高功率 (170KW) 机架设计。
然而,Meta 的雄心并非没有风险。
报告指出,根据供应链估计,Meta 的目标是到 2025 年底至 2026 年实现 100 万至 150 万件 ASIC 出货量,但目前 CoWoS 晶圆分配只能支持 30 万至 40 万片,可能会因产能瓶颈而推迟计划。更不用说大尺寸 CoWoS 封装的技术挑战和系统调试所需的时间(Nvidia 的类似系统需要 6 到 9 个月的调试时间)。
如果 Meta 和 AWS 以及其他 CSP 同时加速部署,AI 服务器所需的高端材料和组件可能会面临短缺,从而进一步推高成本。
Nvidia 的技术护城河仍然安全
Nvidia 肯定不会坐视不理。
在 2025 年 COMPUTEX 大会上,英伟达推出了 NVLink Fusion 技术,开放了其专有的互连协议,允许第三方 CPU 或 xPU 与自己的 AI GPU 无缝连接。这种半定制架构似乎是一种妥协,但这是 Nvidia 巩固其在云 AI 计算市场份额的战略。
报告指出,数据显示,英伟达在芯片计算密度(每单位面积的计算能力)和互连技术(NVLink)方面仍然处于领先地位,这使得 ASIC 在短期内难以赶上其性能。此外,Nvidia 的 CUDA 生态系统仍然是企业 AI 解决方案的首选,这是 ASIC 难以复制的障碍。
对于投资者来说,英伟达的技术护城河仍然很深,但其高利润模式是否会在其他 CSP(云服务提供商)的成本压力下被迫调整,值得持续关注。
总而言之
根据野村证券的报告:
1.
Meta 的 MTIA 计划:
Meta 预计 2025 年底至 2026 年推出 100 万至 150 万颗 AI ASIC 芯片(MTIA T-V1),由博通设计,采用高规格 36 层 PCB 与混合冷却技术。
2026 年中期,MTIA T-V1.5 芯片面积将翻倍,运算密度接近 Nvidia 的 GB200 系统。
2027 年,MTIA T-V2 将采用更大规模 CoWoS 封装与高功率(170KW)机架设计。
2.
ASIC 市场崛起:
目前 Nvidia 占 AI 服务器市场 80%以上,ASIC 仅 8-11%。
2025 年 Google TPU 出货量预估 150 万至 200 万台,AWS Trainium 2 约 140 万至 150 万台,合计达 Nvidia GPU 出货量(500 万至 600 万台)的 40-60%。
2026 年,随着 Meta 与微软大规模部署,ASIC 出货量有望超越 Nvidia GPU。
3.
挑战与风险:
Meta 的 ASIC 计划受 CoWoS 晶圆产能限制(仅支援 30 万至 40 万颗),可能延迟进度。
大尺寸 CoWoS 封装技术挑战与系统调试(需 6-9 个月)增加不确定性。
若 Meta、AWS 等云端服务商加速部署,高阶材料与元件可能短缺,推高成本。
4.
Nvidia 的优势:
Nvidia 透过 NVLink Fusion 技术开放互联协议,强化市场地位。
其芯片运算密度、NVLink 互连技术及 CUDA 生态系统仍领先,ASIC 短期难以超越。
Nvidia 的技术护城河稳固,但高利润模式可能面临云端服务商的成本压力。
ASIC能撼动英伟达吗?
也许很多人会说为什么对 ASIC 如此感兴趣?因为 NVIDIA 是这个时代的皇帝,而 ASIC 正在挑战皇帝。
不过,我可否认的是,设计和制造 ASIC 需要 2 到 3 年时间,无论设计时的规格有多好,两年后就会过时。他还提到,由于 Blackwell 的延误,出现了许多 ASIC 项目,但随着 Blackwell 的供应缓解,其中很大一部分项目已经暂停。
这种说法其实很有道理。如果 NVIDIA 的路线图属实,那么每年都会发布大量的 NVIDIA 芯片,而两年周期的 ASIC 似乎很难击败它们。
然而,这不一定是完整的答案。例如,如何阻止 Blackwell 所经历的延误在 Rubin 上重演?
此外,无论 NVIDIA 的总拥有成本 (TCO) 有多低,大型科技公司还会继续接受 NVIDIA 的高利润率吗?我仍然觉得很难摆脱大型科技公司对 NVIDIA 的毛利率不满意的感觉。
即便如此,如今我越来越倾向于看好 NVIDIA 的观点。
1.
在 AI 芯片市场占据主导地位
NVIDIA 是 HBM 的最大消费者,从 SK Hynix 和 Micron 购买了最多的 HBM。根据我个人的估计,SK 海力士大约 70% 的 HBM 卖给了 NVIDIA。此外,由于与 TSMC 的牢固关系,NVIDIA 拥有最大的 CoWoS 产能分配。
这意味着什么?这意味着他们可以比其他任何人更快、更多地销售 AI 芯片。
我从根本上相信 AI 是一场与时间的赛跑。大型科技公司正试图开发比竞争对手更快、更强大的 AI。这是一个小鸡游戏,如果你停下来,你就输了。
相反,这意味着,如果大型科技公司试图使用 ASIC 进行培训,不得不为他们定制软件,并在 ASIC 的供应和性能有限的情况下工作,那么与 NVIDIA 的情况相比,他们就是输家。
换句话说,这是 NVIDIA 从一开始就赢得的一场战斗,当时 AI 技术的基础开始建立在 NVIDIA 的芯片和 CUDA 软件之上。(当然,这是在 NVIDIA 也在继续发展的假设下进行的。
2.
主权人工智能的现实
Sovereign AI 也是如此。
我实际上认为 ASIC 更适合 Sovereign AI。
从每个国家的角度来看,我一直认为,真正的主权 AI 意味着在每个国家培养当地的无晶圆厂公司,开发自己的 AI 芯片并创建独立的 AI,而不是依赖像 NVIDIA 这样的美国公司。
然而,即使是像韩国和中国台湾这样芯片设计技术丰富的地方,培育自己的 AI 芯片也是一项极其艰巨和困难的政策。
特别是在固定任期的国家,人们强烈倾向于根据短期结果制定政策。
这意味着很少有国家会走上真正的主权人工智能之路,这涉及专有芯片的漫长开发时间和不确定的结果。相反,大多数人会购买 NVIDIA 芯片并制造 ChatGPT 的仿冒品。
除非一个国家像中国或俄罗斯一样,美国限制 NVIDIA 芯片的销售,否则大多数国家最终都会购买 NVIDIA 的芯片。那是因为这是在最短的时间内看到结果的最简单方法。
从这个意义上说,主权 AI 可能被视为“NVIDIA 主权政策”——复制在美国芯片上运行的美国 AI。
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4073期内容,欢迎关注。
加星标⭐️第一时间看推送,小号防走丢
求推荐
半导体行业观察
2025-06-23
半导体行业观察
2025-06-23
半导体行业观察
2025-06-23
半导体行业观察
2025-06-23
半导体行业观察
2025-06-23
证券时报网
2025-06-23