(以下内容从海通国际《中国电子:谷歌TPU切入Meta核心训练池》研报附件原文摘录)
事件
Meta已与Google签署多年期协议,将以租用方式使用Google自研AI芯片TPU,用于训练与开发新一代AI模型,合同规模达数十亿美元。报道同时提到,Meta也在评估更进一步合作,包含最早明年在其自建数据中心采购并部署TPU的可能性。
点评
潜在下一步是走出公有云:Meta与Google讨论过在Meta自建数据中心采购TPU,意味着合作可能从云端租赁走向硬件落地。Meta正用更强的资本开支与更长的合同周期锁定算力,除Google之外,其刚披露与AMD的五年期大单规模可达600亿美元,并继续与NVIDIA签署当前及未来硬件采购安排。
对AI芯片格局如何影响:
这笔订单的关键是头部客户把新增训练预算拆分给更多路线。TPU在Meta侧的进入,意味着AI芯片市场的边际增量开始从单一GPU生态外溢到替代平台,行业进入多极竞速阶段。
租用TPU对应的是云端算力交付与消耗计费。多年期锁量合同更利于云厂商提升集群利用率与收入可见度,AI基础设施逐步呈现类能源业务属性,供给稳定性与交付周期成为核心竞争要素。
云厂商的AI收入结构更清晰:Meta以多年期锁量方式租用TPU,本质上提高了Google云侧AI算力的可见收入与利用率,有利于把AI资本开支转化为更稳定的现金流叙事。与此同时,越多头部客户进入TPU生态,越能反向增强Google在软件栈与工具链上的地位。
NVIDIA的挑战在议价权被稀释。短期看,训练与推理的大盘仍将高度依赖GPU生态;但当头部客户(Meta这类超大买家)开始把新增算力的一部分转向TPU/AMD等替代方案,GPU的边际定价能力与供给稀缺溢价会被削弱。市场竞争将从转向“谁的单位算力更便宜、交付更快、软件更顺”。
对先进封装、HBM、多源拉动。无论GPU还是TPU,核心瓶颈仍是HBM供给、系统互连、机房电力与散热。多极化并不会降低上游紧张程度,反而可能因为多家同时扩产”而让产业链景气持续更久,只是订单在不同平台间重新分配。
我们认为:
算力确定性优先级继续上升:超大模型竞赛进入工程化阶段,头部公司需要的不是单次补货,而是多年期可持续供给;长期合约会成为未来算力采购的主流形态。
Google正在把TPU从自用优势变成对外武器:当TPU获得Meta这类标杆客户背书,Google云侧AI业务的增长逻辑会更顺畅,市场对其AI投入回报的信心也更容易建立。
风险:AI发展不及预期;数据中心建设放缓;