来源:半导体行业观察
2025-10-11 09:30:02
(原标题:AWS买了一家芯片公司)
公众号记得加星标,第一时间看推送不会错过。
来源 : 内容综合自calcalistech 。
据报道,以色列初创公司 NeuroBlade 的数十名开发员工将加入 AWS Annapurna Labs。据估计,此举标志着该公司独立运营的有效结束。
NeuroBlade 首席执行官兼联合创始人 Elad Sity 在致员工的一封信中写道:“我很高兴能与大家分享 NeuroBlade 发展历程中的一个重要里程碑。我们已签署最终协议,NeuroBlade 的核心工程团队将加入 AWS Annapurna Labs,我们将在那里引领下一代产品的创新。我要感谢大家对我们使命的承诺。你们才华横溢,我感激我们共同创造的一切。你们每个人都贡献了创新的解决方案和前沿思维,成就了 NeuroBlade 的今天。”
NeuroBlade 由 Sity 和首席技术官 Eliad Hillel 于 2018 年创立,曾是 SolarEdge 的早期员工。NeuroBlade 迄今已融资 1.1 亿美元。其投资者包括领投该公司最新一轮融资的 Corner Ventures,以及英特尔投资 (Intel Capital)、Grove Ventures、StageOne Ventures 和 Marius Nacht。
“此次交易标志着 NeuroBlade 开启了新的篇章,”Sity 补充道。“对我和 Eliad 来说,NeuroBlade 不仅仅是一家公司——它一直是我们生活和家庭的一部分。在过去的八年里,我们打造了令我们深感自豪的技术,以及我们梦寐以求的工作环境和文化。”
他指出,除了与AWS的交易之外,NeuroBlade已经完成了内部组织架构的调整。“与此次交易无关,我们早些时候就完成了内部团队的调整。加入AWS的软件和系统团队将专注于我们变革性的下一个篇章,届时我们工作的影响力将呈指数级增长。”
我们为共同创造的一切深感自豪,并感谢大家一路以来的奉献、创造力和韧性。我们同样对未来充满期待,并坚信这一新篇章将为 Neurobladers 和我们的技术开启更广阔的机遇。
NeuroBlade 开发了一种新颖的数据分析架构,旨在通过将计算直接集成到内存中来消除数据处理中的瓶颈。其内存加速器技术将专有硬件、软件和算法整合到安装在服务器群中的统一系统中,以加速大规模计算。
Annapurna Labs 目前在以色列拥有数百名员工,致力于开发先进的芯片技术,尤其是在人工智能领域。该公司于 2015 年被亚马逊以约 3.7 亿美元收购。Annapurna Labs 负责为 AWS 开发网络训练处理器 (Trainium)。这些处理器用于训练大型先进的人工智能系统,并使 AWS 能够提供 AI 云服务。
NeuroBlade 的目标是成为“数据分析领域的 Nvidia”。
内存计算芯片和硬件初创公司 NeuroBlade 表示,使用 SQL 处理单元 (SPU) 卸载运行分析工作负载的 x86 CPU 的超大规模计算服务器可以使其作业速度提高 100 倍或更多,从而降低成本并提高 CPU 核心的使用效率。
这家初创公司开发了一款专用半导体芯片,用于加速 SQL 指令处理。它插入主机服务器的 PCIe 总线,透明地接管与 SQL 相关的处理,无需更改主机应用软件。该设备并非 DPU(数据处理单元),它不会从主机 x86 服务器卸载包括安全、网络和存储在内的通用基础设施处理,也不是运行网络速度更快的 SmartNIC。
NeuroBlade 首席商务官 Lior Genzel Gal 在伦敦大数据大会上向我们介绍了公司对超大规模数据中心的关注,NeuroBlade 也在该大会上设立了展台。他表示,NeuroBlade 正在与所有大型超大规模数据中心运营商洽谈,并已与其中一家运营商签订了数千张 SPU 卡的合同。
该公司与戴尔达成了合作协议,在 PowerEdge 服务器中分销 SPU 卡产品,这些服务器的潜在客户挤满了这场非常受欢迎的活动的过道和演讲厅,人们排队等候演讲,而且看不到戴口罩的迹象。
Gal曾担任NVMe存储阵列初创公司Excelero的首席执行官兼联合创始人,该公司于2022年3月被英伟达收购。Gal于2020年9月离开Excelero,并在DPU开发商arcastream负责战略业务发展,该公司于2022年被Kalray收购。他于2021年2月加入NeuroBlade担任首席商务官,并从去年4月起负责Kalray的战略业务发展。
Gal 表示,Excelero 技术加速了存储,但这本身不足以加速应用程序工作负载。他们需要端到端的加速。DPU 无法提供这种加速,只能在基础设施层面工作。使用专门设计的处理器加速 SQL 处理可以实现端到端的 SQL 分析加速。
我们询问了如何使用 SPU 进行计算存储。虽然可以实现,但投资回报率可能不高,只需将 SPU 固件代码的子集运行在驱动器机箱内的 FPGA 或 Arm CPU 中即可。SPU 采用并行处理设计,旨在加快查询分布在多个驱动器(而非单个驱动器)上的数据的查询速度。Gal 告诉我们,NeuroBlade 曾与三星等驱动器制造商洽谈,但最终决定不专注于这个市场。
这促使我们思考如何在存储阵列中部署 SPU 卡,将其插入控制器,并处理分布在多个驱动器上的数据。这与 NeuroBlade 相关,但超大规模数据中心的销售回报将远高于在存储阵列中部署 SPU。
我们的理解是,超大规模厂商的销售可能涉及数万个 CPU,而存储阵列供应商每年的出货量只有数百或数千个。NeuroBlade 已经与 VAST Data 等存储供应商讨论了其阵列内部 SPU 的使用情况。
Gal 表示:“未来的道路包括存储阵列,但这不是我们目前的重点。”
他认为 NeuroBlade 的技术独特且高效。超大规模客户和其他用户将能够降低成本,并释放 CPU 核心用于其他工作,每年节省数百万美元。
服务器 x86 CPU 可用于一般应用程序工作。GPU 可用于 AI,而 SPU 则用于基于 SQL 的分析。Gal 表示:“我们是数据分析领域的英伟达。”
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4191期内容,欢迎关注。
加星标第一时间看推送,小号防走丢
求推荐
半导体行业观察
2025-10-12
半导体行业观察
2025-10-12
半导体行业观察
2025-10-12
半导体行业观察
2025-10-12
半导体行业观察
2025-10-12
半导体行业观察
2025-10-12
证券之星资讯
2025-10-11
证券之星资讯
2025-10-11
证券之星资讯
2025-10-11