|

财经

CPO,重要里程碑

来源:半导体行业观察

2025-10-14 09:04:40

(原标题:CPO,重要里程碑)

公众号记得加星标,第一时间看推送不会错过。

近日,博通宣布其Tomahawk 6 - Davisson(或TH6-Davisson)产品现已上市。这意义重大,因为这是一款共封装光纤 (CPO) 以太网交换机,可提供惊人的 102.4 Tb/s。而且,随着它的出现,它将共同封装的光器件带入了下一代网络。

在本月初,该公司宣布其共封装光学器件(CPO)的质量和可读性达到业界领先水平。博通与Meta合作,其CPO技术累计实现了100万小时400G等效端口设备“无抖动”运行。这一里程碑验证了博通CPO平台的成熟度、可靠性和生产就绪性,可用于支持人工智能和云基础设施的下一代超大规模数据中心。

对于博通来说,Meta 测试的数据证实了技术的发展,它声称这代表着技术的一次重大变革,将人工智能网络提升到了一个新的水平。

为什么是 CPO?

在大规模 AI 集群中,数千个 GPU 必须像一个系统一样运行,这给这些处理器的互连方式带来了挑战:每个机架不再拥有自己的一级(架顶式)交换机,并通过短铜缆连接,而是将交换机移至机架末端,以便在多个机架之间创建一致的低延迟网络结构。这种迁移极大地延长了服务器与其第一个交换机之间的距离,这使得铜缆在 800 Gb/s 等速度下变得不切实际,因此几乎每个服务器到交换机以及交换机到交换机的链路都需要光纤连接。


在这种环境下使用可插拔光学模块存在明显的局限性:此类设计中的数据信号离开ASIC,穿过电路板和连接器,然后才转换为光信号。这种方法会产生严重的电损耗,在200 Gb/s通道上损耗高达约22分贝,这需要使用复杂处理进行补偿,并将每个端口的功耗增加到30W(这反过来又需要额外的冷却并造成潜在的故障点)。尤其是随着AI部署规模的扩大,这种损耗几乎变得难以承受。


CPO 通过将光转换引擎与交换机 ASIC 并排嵌入,避免了传统可插拔光模块的缺点,信号无需通过长距离电气线路传输,而是几乎立即耦合到光纤中。因此,电气损耗降低至 4 分贝,每端口功耗降至 9W。这种布局省去了众多可能出现故障的组件,并大大简化了光互连的实施。

在博通看来,共封装光学器件 (CPO) 是一种先进的异构集成技术,将光学器件和硅片集成在单个封装基板上,旨在应对下一代带宽、功耗和成本挑战。CPO 融合了光纤、数字信号处理 (DSP)、ASIC 以及先进的封装和测试技术,为支持横向扩展和纵向扩展网络的数据中心互连提供颠覆性的系统价值。


博通进一步指出,如今,可插拔光模块内部需要高功率 DSP,以补偿信号从 ASIC 传输过程中产生的路径互连损耗。随着 SerDes 技术扩展到 212 Gbps PAM-4 及更高速率,这些互连损耗将持续增加,并需要更高功率的 DSP 补偿。线性重定时光学器件 (LRO) 或线性可插拔光学器件 (LPO) 继续受到这些互连损耗的影响,但它们试图将 DSP 从光模块内部移除。通过将光学器件通过单个基板接口放置在任何 ASIC 旁边,CPO 可提供最高的集成度、最低的路径损耗和最低功耗。

作为领一个重要参与者,Nvidia也声称,通过放弃传统的可插拔收发器,并将光学引擎直接集成到交换机芯片中(得益于台积电的 COUPE 平台),其在效率、可靠性和可扩展性方面实现了显著提升。Nvidia 表示,与可插拔模块相比,CPO 的改进非常显著:功率效率提高了 3.5 倍,信号完整性提高了 64 倍,由于有源设备减少,弹性提高了 10 倍,并且由于服务和组装更简单,部署速度提高了约 30%。

博通CPO,经过验证

早在 2023 年 OFC 大会上,博通 就在探讨共封装光器件。其中包括一款速度高达 51.2Tbps 的全新博通 Tomahawk 5 Bailly 芯片。随着数据中心需要降低比特/焦耳成本,同时提高速度和可靠性,共封装光交换机被视为一项潜在的阶跃式创新。这正是博通的项目如此令人兴奋的原因。

如下图这是一款博通 Tomahawk 5 51.2Tbps 交换芯片,搭载八个 64 通道硅光引擎。


这款新芯片无需将信号以电的方式传输到交换机前端的可插拔光器件,因此能够以 5.5W 的功耗支持 800Gbps 的流量。作为参考,Tomahawk 4 Humboldt 25.6T 同封装光器件平台在 800Gbps 链路上的功耗约为 6.4W。

不过,正如博通光学系统部门营销和运营副总裁 Manish Mehta 在接受媒体采访时所说:“我们推出 CPO 时,它还处于 AI 时代之前,用于前端计算。当时,客户告诉我们,‘光收发器的功率有点高,我们认为信号完整性将面临挑战,’”“但随着向横向扩展网络中 AI 训练的迁移成为光互连的主要应用,业界已经认识到,前端云计算对链路抖动事件的容忍度在后端并不适用。”Mehta 解释道。

因此在博通推出的全新 TH6-Davisson 交换机是一款 102.4Tbps 的交换机,搭载 16 个博通 6.4Tbps Davisson DR 光学引擎。这些引擎采用了台积电紧凑型通用光子引擎 (TSMC COUPE),旨在大幅降低交换机所需的功耗。该交换机集成了 64 个 Condor 3nm SerDes 核心。每个 Condor 核心集成了 8 个 212.5 Gb/s PAM4 SerDes。这是因为该交换机不需要在交换机封装和前插式光模块之间传输高速高功率电信号。博通表示,其功耗降低了约 70%。


新的 TH6-Davisson 部件编号为 BCM78919,这与疫情前我们见到的英特尔共封装光学器件和硅光子交换机等解决方案不同。在这个设计中,博通采用了更现代化的配置,配备可插拔和可更换的激光模块。光源通常是故障率最高的部件,因此将其设为 FRU 意味着交换机可以在现场进行维修。


博通花费了大量精力使用 TH5-Bailly 平台测试其 CPO 解决方案,以证明它不仅可以达到速度,而且 CPO 是可靠的。

博通光学系统部门超大规模战略与产品总监 Rajiv Pancholy 强调:“当我们启动 (CPO) 平台时,我们必须与模块竞争,并证明我们拥有更低的功耗、更低的成本(得益于集成)和更高的可靠性。” “现在,无论他们是否相信我们关于功耗的说法,我们从 Meta 获得的数据都表明,使用 CPO 可以使训练效率提高 90%。”

“Bailly 的设计初衷并非人工智能;它的设计理念是在人工智能训练成为主要用例之前,”Mehta 补充道。“我们已将其迁移到专为人工智能打造……我们[也]在提高光纤密度方面做了大量工作,因为如果从 FR4 [收发器] 升级到 DR [收发器],则需要将光纤连接数量翻倍——从每个端口四根光纤增加到八根。”

如今,拥有 1.6TbE 的链路已经非常庞大。同时,对于大型 AI 集群而言,能够以 800GbE 或 400GbE 的速度连接更多设备是一个巨大的优势,因为它可以帮助以更少的交换层连接更多设备。在 AI 集群中,网络功耗受到了严格审查,因为它既至关重要又耗电,会占用 AI 加速器的资源。我们已经拥有几代相当简单的新型交换机,吞吐量翻了一番。共封装光器件是该行业的下一个重大变革,因为它们从根本上重新定义了交换机的界限。


英伟达等也纷纷入局

博通认为,我们仍处于 CPO 的早期阶段,因此还有一些事情需要解决,但如果基线能提高 5 倍,那么我们就能接近我们一直为 CPO 设定的目标故障率——也就是让它和传统硅芯片一样可靠——至少这是可以实现的。

据介绍,其光学器件现在更接近交换机硅片,博通声称此举可显著减少Davisson 的链路抖动和功率损耗,使其能够为 AI 集群的高速互连提供动力。Davisson 是博通的第三代 CPO,其第一代产品 Humboldt于 2021 年首次亮相。

“经过三代的发展,这个生态系统日臻成熟,我们最初的主导合作伙伴以及越来越多的合作伙伴都对CPO能够为网络带来的价值感到非常兴奋,”Mehta说道。“我认为,我们看到了CPO领域更广泛的投资呈现非常积极的势头。”

博通高管进一步指出,改进工作没有任何停止的迹象,并补充道:“[Meta] 节省了 65% 的成本,可维护性故障率比可插拔式产品降低了 5 倍。这可是个不小的进步。我认为改进不会就此止步。”

据透露,该供应商目前正在研发第四代 CPO,其每通道传输速度可达 400G。

值得一提的是,Nvidia 也将推出基于 CPO 的光互连平台,适用于以太网和 InfiniBand 技术。首先,该公司计划在 2026 年初推出 Quantum-X InfiniBand 交换机。每台交换机将提供 115 Tb/s 的吞吐量,支持 144 个端口,每个端口的速率为 800 Gb/s。该系统还集成了 ASIC,具有 14.4 TFLOPS 的网络内处理能力,并支持 Nvidia 的第四代可扩展分层聚合缩减协议 (SHARP),以降低集体操作的延迟。这些交换机将采用液冷设计。

与此同时,Nvidia 计划于 2026 年下半年通过其 Spectrum-X Photonics 平台将 CPO 引入以太网。该平台将基于 Spectrum-6 ASIC,为两款设备供电:SN6810 提供 102.4 Tb/s 带宽,拥有 128 个 800 Gb/s 端口;SN6800 则可扩展至 409.6 Tb/s,拥有 512 个相同速率的端口。两款设备也都采用液冷技术。

Nvidia 预计,其基于 CPO 的交换机将为日益庞大、日益复杂的生成式 AI 应用的新型 AI 集群提供支持。由于使用 CPO,此类集群将省去数千个分立组件,从而实现更快的安装速度、更便捷的维护,并降低每个连接的功耗。因此,使用 Quantum-X InfiniBand 和 Spectrum-X Photonics 的集群在启动时间、首次token时间和长期可靠性等指标方面均有显著提升。

Nvidia 强调,共封装光学器件并非可选增强功能,而是未来 AI 数据中心的结构性要求。这意味着该公司将把其光互连技术定位为超越 AMD 等竞争对手的机架式 AI 解决方案的关键优势之一。当然,这也是AMD 收购 Enosemi 的原因。

关于 Nvidia 的硅光子计划,值得关注的一点是,其发展与台积电 COUPE(紧凑型通用光子引擎)平台的发展紧密契合。后者预计将在未来几年内不断发展,从而提升 Nvidia 的 CPO 平台。台积电第一代 COUPE 采用该公司的 SoIC-X 封装技术,将 65 纳米电子集成电路 (EIC) 与光子集成电路 (PIC) 堆叠在一起。

台积电的 COUPE 路线图分为三个阶段。第一代是用于 OSFP 连接器的光学引擎,提供 1.6 Tb/s 的数据传输率,同时降低功耗。第二代将采用 CoWoS 封装技术,通过共封装光学器件,在主板层面实现 6.4 Tb/s 的数据传输率。第三代的目标是在处理器封装内实现 12.8 Tb/s 的数据传输率,并进一步降低功耗和延迟。

我们一起期待一个更好的CPO时代到来。

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

今天是《半导体行业观察》为您分享的第4194期内容,欢迎关注。

加星标第一时间看推送,小号防走丢

求推荐

半导体行业观察

2025-10-14

半导体行业观察

2025-10-14

半导体行业观察

2025-10-14

半导体行业观察

2025-10-14

证券之星资讯

2025-10-14

证券之星资讯

2025-10-14

首页 股票 财经 基金 导航