来源:半导体行业观察
2025-08-14 09:37:57
(原标题:这类芯片,博通拿下九成市占,高调回击AMD和英伟达)
公众号记得加星标,第一时间看推送不会错过。
来源:内容 综合自今周刊等 。
博通凭九成市占率称霸云端数据中心交换器市场,面对英伟达与超微(AMD)的强势进击,高调推出基于以太网络的SUE架构,主打开放相容与低延迟性能,力守AI时代交换器主导权。
在AI热潮与大语言模型训练带动下,数据中心里的图形处理器(GPU)数量持续攀升,负责传输与连接、让众多GPU得以高速交换数据的中枢交换器,地位变得前所未有地重要。
尽管交换器占整体数据中心建置成本不到3%,但如果把算力比作自来水,交换器就是让伺服器GPU、中央处理器(CPU)甚至机柜间的数据畅行无阻的水管。管线宽度与流速,决定算力能否发挥得淋漓尽致。
依照业界标准,平均约十颗GPU就需要搭配一颗交换器,调研机构MRFR估算,2024年数据中心用交换器市场规模达到180亿美元,未来10年更将以5.8%的年复合成长率扩张。
AI带动交换器需求飙升
在交换器市场,博通(Broadcom)是已称霸十多年的业界龙头,因为手握与既有数据中心架构相容的优势,即使产品价格较高,却仍经常供不应求;过去曾有迈威尔(Marvell)等芯片设计公司推出竞品,但最后纷纷折戟,如今博通在云端数据中心以太网络交换器的市占率仍高达九成。
博通资深副总裁暨核心交换器部门总经理拉姆(Ram Velaga)接受《今周刊》专访自豪指出,博通的高阶交换器之所以傲视全球,是因为具有简化网络、减少光纤使用数量、提高可靠性和改善性能等效益,“我们近年新推出的交换器芯片,更是多年来需求最高的一批产品。”他透露。
拉姆早年出身网通设备龙头思科(Cisco),2012年跳槽博通主管核心交换器芯片,十多年来带领部门打下大片江山。尽管博通近几年受惠客制化芯片(ASIC)需求,业绩大幅成长,但在半导体营收中,AI网通产品仍占四成,2025年第二季网通营收达到34亿美元;网通芯片更较去年度成长170%,主要动能就来自交换器芯片。
对于交换器芯片的爆发性成长,拉姆解释,网通一直是博通专注的核心事业之一,拥有最强的研发团队、最先进的制程节点经验能力以及大量矽智财(IP),“过去十年多里,我们每18到24个月,就会将交换器频宽翻倍、进而推出领先全业界的交换器芯片,所以,这不是偶然。”他表示。
拉姆指出,有别于过去同业思科只想用一颗芯片通吃云端、企业及电信需求,博通认为,在芯片空间有限的情况下,必须针对不同应用有所取舍。因此博通针对市场需求推出差异化产品,例如Tomahawk是对应最高阶云端需求,Jericho主攻电信级ÿ 机柜互联市场、Trident则专注于企业级应用。
英伟达、AMD双强夹攻市场
尽管在交换器市场独领风骚多年,博通近期却感受到明显的竞争压力,因为英伟达与超微(AMD)两家AI芯片巨头,正虎视眈眈,准备抢攻这项AI伺服器的必要配备。
英伟达2018年开始陆续以自家高速互联架构“NVLink”与“InfiniBand” 为核心,推出配合的交换器芯片,并采“GPU加交换器绑定出货”的配货策略,吸引云端业者将其纳入第二供应商,业界估计最高可能吃下两成市占,严重侵蚀博通版图。
AMD近期也号召成立“UALink”架构,以过去英特尔力推的PCIe架构为基础,主打以开放规格挑战英伟达的封闭生态圈,已吸引苹果、亚马逊以及微软、Meta、思科等大咖加入。外界预期,明年就会有芯片商推出符合UALink规范的交换器芯片。
这对博通来说,有如同时面临英伟达与UALink夹杀,腹背受敌。这也是为什么一向低调的博通,近期公开活动明显增加,拉姆也在开放运算计画(OCP)亚太峰会首度移师台湾之时现身,“固桩”意味浓厚。
OCP是2011年由Meta发起,供数据中心业界讨论开放规格与未来产品蓝图的重要平台,“这次博通在OCP上很用力!”一名与博通有合作关系的交换器业者观察。而这次来台层级最高的拉姆,显然也有备而来。
他在OCP上大谈博通今年五月发布的SUE(Scale Up Ethernet)架构,这是一项基于开放标准的以太网络规格所推出的垂直扩充运算技术,能做到高频宽、低延迟,在成千上百个GPU、CPU芯片间高速连接。
相较于UALink,SUE架构虽非由第三方组织设计的标准,但因为是基于以太网络规格设计,能与现有数据中心广泛采用的以太网络交换器生态系相容。
“我们写了规格书,发布在网络上,任何人都可以采用。市场上以太网络交换器芯片厂商数量很多,我们可以说是让众人都赢,SUE规格就是开放的。”拉姆说,SUE针对所有公司开放,不需要像是NVLink一样须取得英伟达授权。
如果众人都赢,那博通还有什么优势? “我们拥有世界上最低延迟的交换器芯片,所以会比其他交换器来得更好。”拉姆霸气回应。
开放规格争议战火延烧
谈起竞争对手,拉姆表示,英伟达是一家很棒的GPU公司,“但我并不认为他们拥有很好的网通技术。”
他举例,20多年前惠普、戴尔曾主推封闭式刀锋伺服器机柜,但最终云端业者选择采用白牌伺服器机柜,“这代表一家公司未必擅长做所有的事,就算勉强尝试垂直整合、市场终究还是会走向开放的生态系统。”
即使今年5月英伟达宣布向几位合作伙伴授权“NVLink Fusion”,但拉姆也批评NVLink Fusion不是真开放,“因为英伟达随时可以决定不要再授权,也要求必须连接自家的交换器、GPU或CPU。”
除了句句针对英伟达,拉姆后续更在OCP圆桌论坛和AMD架构与策略总监、UALink联盟董事会主席柯提斯(Kurtis Bowman)针锋相对。
柯提斯先是暗酸所谓的SUE“根本不是一个标准,只是博通标准、规格的漂白。”柯提斯也进一步指控,SUE目前没有针对数据传输的延迟性提出规范。
针对柯提斯攻击,拉姆大动作回应:“提出这问题代表你根本不懂以太网络,以太网络从来不在标准中定义延迟,客户会选择自己喜欢的低延迟交换器……,你们想订延迟标准,是因为不知道怎么设计低延迟的交换器吧?”
拉姆也质疑,UALink背后的规格PCIe,过去主要服务于短距离芯片传输,较难像以太网络一样,拥有支援数千个处理器间的长距离传输能力,“目前有没有哪家公司的PCIe交换器,具备足够的缓冲记忆体来支援长距离传输呢?祝你好运。”
无论谁的论点更有力,从论坛上唇枪舌剑,确实看得出交换器芯片是兵家必争之地。当AI应用让算力需求愈来愈高,交换器传输角色也愈来愈吃重,尤其是传输包含水平扩充(scale out,指将多台伺服器串联起来)和垂直扩充(scale up,指将许多台伺服器变成一台超级电脑)两个不同面向,交换器的效能分工也须更为精细,难有通用产品。
DIGITIMES分析师姚嘉洋观察,SUE依托于成熟、开放的以太网络生态系,“博通本来就在以太网络上有很大的话语权,但问题就在于博通的SUE,跟其他业者能有多高的相容度?毕竟博通在以太网络芯片领域也有其他竞争对手,博通会以何种心态面对竞争对手,仍待观察。”针对后起之秀UALink,姚嘉洋则认为需要等AMD、英特尔推出相关产品,再来看后续与NVLink的竞争态势。
在AI时代的连接战场上,面对英伟达、AMD挑战,网通霸主博通也强势回应,从博通这次高调现身OCP亚太峰会来看,这场围绕数据中心连接架构的三方角力,才正要进入白热化阶段。
利用 Jericho 4 扩展数据中心间的交换能力
打个比方,出于机械和技术原因,数据中心的爆炸区域应该控制在一定范围内,以降低故障导致过多机器损坏的风险。这也是为什么公司会构建包含多个数据中心的区域,而不是一个大型数据中心的原因之一。
十多年来,运行 CPU 系统的云数据中心一直都是如此,现在,随着各大公司试图构建超级计算机,这种超级计算机不再涵盖数万个计算引擎,而是涵盖数十万到数百万个 GPU 和 XPU,有时需要同时使用它们来训练大型模型,因此,对于 AI 数据中心来说,这种情况也正在成为现实。
长期以来,思科系统、瞻博网络(现为惠普企业的一部分)和华为技术有限公司都向数据中心运营商出售带有定制 ASIC 的大型路由器,用于连接他们的数据中心。但超大规模数据中心运营商和云服务提供商却无法接受这些巨头的成本,于是说服 Dune Networks(2009 年 11 月被博通以 1.78 亿美元收购)和博通等商用交换机芯片制造商开始在其交换机芯片中添加路由功能。由于这些超大规模数据中心运营商和云服务提供商已经为交换和路由创建了自己的基于 Linux 的网络操作系统,因此他们可以立即利用这些路由功能,并开始逐渐摆脱对思科和瞻博网络套件的依赖。
有趣的是,这些交换机/路由混合芯片的数据包处理器上有深度缓冲区,因此它们可以更好地处理拥塞,而不会丢弃数据包来处理拥塞,这些芯片被超大规模企业和云构建者选择用于其网络其他部分所使用的互连的选定部分,在这些部分,高延迟和丢包是不允许的。
这就是“Jericho” StrataDNX 交换机/路由器芯片及其相关的“Ramon”结构元件的用武之地,它们是博通数据中心网络产品组合的重要组成部分。上周,我们在密歇根州北部一个美丽的湖边度假时,博通推出了 Jericho 4 交换机/路由器芯片及其相关的 Ramon 4 结构元件,提升了其能够处理的数据中心互连和深度分组交换任务的容量——更重要的是,Jericho 4 定位为将挤满 GPU 和 XPU 的数据中心大厅互连成拥有 100 万个计算引擎共享工作的集群的手段。
Jericho 4 芯片完善了博通今年发布的网络 ASIC 系列,目前这些芯片正在向设备制造商提供样品,为 2026 年人工智能计算和网络革命性的一年做准备。
7 月份发布的 Tomahawk Ultra 芯片属于这一领域的一端,旨在用于扩展网络连接 GPU 和 XPU 的内存,使它们能够更轻松、更快速地共享工作,并替代传统 HPC 仿真和建模集群中常用的低延迟、高带宽 InfiniBand 交换结构,以及用于连接 GPU 节点的后端网络。6月份发布的 Tomahawk 6 芯片(共有两款)可用于扩展 GPU 和 XPU 的互连(并提供更大的聚合带宽,因此基数更高),但其真正设计用于 AI 集群(以及某些 HPC 集群)后端的横向扩展网络,以及用于各种分布式系统和跨系统的前端网络。
正如我们上文所指出的,Jericho 4 芯片旨在扩展具有大数据流且对拥塞敏感的网络,以及用于互连数据中心和跨数据中心扩展 AI 应用。这些任务需要海量带宽,而 Jericho 4 拥有一些技术,可以提供比以往更高的带宽,并为那些对跨数据中心数据移动敏感的用户提供集成安全性。
Jericho 4 的一大创新是 Broadcom 称之为 HyperPort 的东西,它是四个 800 Gb/秒端口的聚合,可提供 3.2 Tb/秒的带宽,但实际上它看起来像是 Jericho 4 交换机/路由器上运行的负载平衡软件的单个端口。我们的想法是,你可以将跨数据中心传输任意给定带宽所需的端口数量减少四分之一。Broadcom 软件产品和生态系统负责人 Hasan Siraj 告诉The Next Platform :“我们大大减少了端口数量,因此发生哈希、冲突或极化的可能性将大大降低。”他补充说,这种 HyperPort 方法比传统的 ECMP 链路聚合更好,因为负载平衡和拥塞控制软件将其视为一个端口。因此,在数据中心互连用例中,HyperPort 可以比以前的方法高 70% 的利用率驱动其组件链路。
与 Tomahawk 6 和 Tomahawk Ultra 芯片一样,Jericho 4 采用台湾半导体制造公司的 3 纳米工艺蚀刻而成,并且也采用了小芯片设计,正如您从本文顶部显示的 Jericho 4 芯片的特征图像中看到的那样。
Jericho 4 代表着 Jericho ASIC 产品线容量的大幅提升。早在 2018 年 3 月发布的 Jericho 2 芯片于 2019 年 2 月开始量产,其总带宽高达 9.6 Tb/秒,能够以 400 Gb/秒的速度驱动 24 个端口。Jericho 2 还配备了 8 GB 的高带宽内存 (HBM) 作为数据包缓冲区,这使得其拥有比 ASIC 本身所能添加的更大的缓冲区容量,并实现了最快的速度。
随着2023 年 4 月 Jericho 3-AI 的推出,博通采用了与2022 年 8 月推出的 Tomahawk 5 交换机 ASIC相同的“Peregrine”SerDes ,并创建了一款总带宽达 51.2 Tb/秒的设备,该设备可在单个网络中横向扩展至 32,000 个 GPU,使用机架顶部的 Jericho 3-AI 和 Ramon 3 结构元素的叶/脊网络将它们连接在一起。(我们不知道这款 Jericho 3-AI 设备上有多少 HBM 内存,该设备采用台积电的 5 纳米工艺蚀刻而成。)
这已经是相当不错的可扩展性了,但管道并没有那么粗。在 Jericho 4 中,管道变得更粗,并且更多的管道被组合起来,以驱动数据中心内更多的设备或跨数据中心的链接。就像这样:
我们不知道 Jericho 4 上有多少 HBM,但我们知道其带宽是 Jericho 3-AI 上缓冲内存的 2 倍。
有趣的是,一个由 4,500 台 Jericho 4 交换机组成的网络可以提供 36,000 个运行速度为 3.2 Tb/秒的 HyperPort。首先,这将为 AI 集群打造一个杀手级后端网络,尽管我们怀疑它的成本会比基于 Tomahawk 6 交换机的网络高得多。其次,通过使用 51.2 Tb/秒的 Jericho 4 芯片及其 HyperPort,您可以在数据中心互连中获得 4.5 倍的带宽。要做到这一点,需要 4.5 倍数量的 Jericho 4 芯片——4,500 块对 1,000 块——但至少可以整合端口,真正提升整个互连的带宽。
在 AI 网络中部署 Jericho 4、Tomahawk 6 和 Tomahawk Ultra 芯片的方法有很多。以下是两个互连数据中心的两种场景:
博通建议,对于想要在数据中心部署 100 万个 GPU 或 XPU 的公司,他们至少应该在跨机架的叶子/主干网络中使用 Tomahawk 6,并使用 Jericho 4 来连接每个拥有 250,000 个 GPU 或 XPU 的数据中心。
Jericho 4 可以驱动长达 100 公里或更长的数据中心互连。顺便提一下,Jericho 4 芯片使用的是与 Tomahawk 6 交换机芯片相同的“Condor”Serdes。Jericho 4 芯片还集成了 MACsec 加密技术(最初在园区网络中流行),可以在数据以线速进出 Jericho 4 设备时提供安全保护。
与Tomahawk 6一样,Jericho 4似乎也有两个版本:一个使用100 Gb/秒的SerDes,另一个使用200 Gb/秒的SerDes。这两个SKU允许客户根据其网络需求选择所需的带宽和基数。
Siraj 表示,Jericho 4 芯片目前正在进行样品测试,预计将于 2026 年第一季度投入生产的交换机和路由器中。
https://www.nextplatform.com/2025/08/13/broadcom-stretches-switching-across-datacenters-with-jericho-4/
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4125期内容,欢迎关注。
加星标第一时间看推送,小号防走丢
求推荐
AI蓝媒汇
2025-08-14
半导体行业观察
2025-08-14
半导体行业观察
2025-08-14
半导体行业观察
2025-08-14
半导体行业观察
2025-08-14
半导体行业观察
2025-08-14
证券之星资讯
2025-08-14
证券之星资讯
2025-08-14
证券之星资讯
2025-08-14