来源:半导体行业观察
2025-09-08 09:03:05
(原标题:RISC-V,紧盯万亿市场)
公众号记得加星标,第一时间看推送不会错过。
来源 : 内容 编译自 riscv 。
人工智能 (AI) 在各行各业势不可挡的崛起,背后是多重共生因素的驱动。在技术层面,数字化和互联流程产生的可用数据爆炸式增长,为 AI 的训练和推理奠定了坚实的基础。同时,处理器和加速器硬件的进步,加上 AI 就绪型软件平台和工具的普及,提供了处理数据密集型工作负载所需的性能。AI 的蓬勃发展本身就营造了私营企业和政府机构都渴望参与的环境。因此,它激发了投资的涌入,进一步加速了增长。
这种增长不仅仅关乎更多数据和更多计算,更关乎成本、速度和可持续性之间的权衡。2025 年人工智能基础设施峰会强调全栈优化推理速度、提升各层级的能效,以及平衡创新与可持续性。这些都是成功人工智能未来发展的基本要素。
人工智能的空前发展也对实施支持人工智能的计算解决方案的需求产生了同样的影响。据 Omdia 称,2025 年全球人工智能处理器市场价值将达到 2614 亿美元,预计到 2030 年将以 8.1% 的复合年增长率 (CAGR) 增长至 3854 亿美元。
至关重要的是,虽然硬件约占整个市场收入的 70%,但软件部分正在快速增长,凸显了部署就绪堆栈和强大生态系统的战略重要性。
现代人工智能涵盖了各种各样的工作负载,从电池供电的传感器算法和边缘智能视觉,到数据中心规模的推理和太空自主系统。其中许多工作负载(尤其是大规模人工智能模型的训练)正在将传统架构推向极限。
传统的封闭式架构可能在通用计算方面表现出色,但其固定指令集架构 (ISA) 和许可模式限制了任何针对特定工作负载的深度定制。尽管通用处理器已经成熟,但它们通常缺乏针对推理延迟、能效、实时处理或模型专业化进行优化所需的特定 AI 工作负载能力。实现这些能力通常需要添加神经处理单元 (NPU) 和其他类似的并行计算硬件进行改造。
如今,随着人工智能基础设施支出每年飙升至 4000 亿美元,对专为全栈优化和各层级能效而设计的人工智能原生硬件的需求也日益迫切。我们所说的“人工智能原生”是指可定制、高效且可扩展的系统,这些系统从零开始设计,旨在将人工智能作为基础组件(而非事后诸葛亮)。
RISC-V:AI原生指令集架构(ISA)
关于定制计算与通用计算的争论是今年 2025 年人工智能基础设施峰会 (AI Infra Summit 2025) 的一个关键主题,而 RISC-V 的立场毋庸置疑。作为一个开放且高度灵活的生态系统,RISC-V 既提供标准化,又提供定制化,它为硬件开发者提供了构建高度针对性的 AI 原生芯片所需的芯片自由度。正是这一点,让 RISC-V(一个刚满15 岁,且为 ISA 的指令集)成为下一个万亿美元 AI 投资的首选架构。
“人工智能的发展速度比任何其他领域都快,而 RISC-V 是唯一能够跟上这一步伐的架构,”VRULL GmbH 创始人兼首席技术专家、RISC-V 技术指导委员会副主席 Philipp Tomsich 博士表示。“RISC-V 拥有开放标准、特定领域加速以及摆脱传统束缚的优势,是从边缘设备到超级计算机的 AI 原生创新基础。”
要在基础设施层面支持这一点,硬件和软件供应商需要携手合作,在整个堆栈中部署支持 AI 的硬件和支持软件。这涵盖了从传感器级微控制器 (MCU) 到边缘 AI 处理器,再到数据中心的高性能云解决方案等各个方面。
RISC-V 在矢量化、可扩展性和异构计算时代成长起来,其自定义指令和特定领域加速的级别远远超出了现有厂商专有核心所能提供的范围,为光学/光子路径、可组合基础设施和内存创新等未来范式提供了契合点。
RISC-V 中的“V”始终是对向量的微妙致敬——体现了创始人 Krste Asanović 在 20 世纪 90 年代初的论文芯片——一款用于运行神经网络的向量机。这包括可扩展向量处理的扩展(具有灵活的向量长度,这是旧版 SIMD 模型所缺乏的)、混合精度数据处理以及其他内置于 ISA 而非改装的加速器。
这种架构理念使 RISC-V 成为 AI 原生、特定领域计算的天然之选——从超低功耗边缘推理到数据中心变压器工作负载——而且并非仅仅停留在理论上。主流超大规模计算厂商、初创公司和芯片设计公司已经在定制化、特定领域 AI 芯片中证明了其可行性。
RISC-V 还避免了“锁定”单一供应商时出现的供应链和路线图开发挑战。获取最新技术并非总能得到保证,而获得专有 ISA 的许可通常意味着放弃部分路线图开发的自主权。相比之下,RISC-V 赋能开发者按照自己的方式进行创新。它确保他们的芯片战略在技术和商业上都保持自主性。
人工智能工作负载需要一种新的开放方法
人工智能的第一阶段专注于缩短产品上市时间。这导致部署的平台成本高昂、占用空间大且功耗高。因此,训练模型的成本现已超出了绝大多数客户的承受能力。
RISC-V 社区看到我们进入了一个由两大市场力量推动的新成熟阶段:
需要为边缘创建解决方案,因为与成本、功率、性能和面积 (PPA) 相关的挑战明显增多
需要降低云平台的总体拥有成本 (TCO)
RISC-V ISA 专为模块化而设计。其标准化和定制化的双重优势使其成为特定领域计算的理想选择,例如:
神经处理单元 (NPU):NPU 是专为运行神经网络运算而优化的专用处理器。借助 RISC-V 的模块化 ISA,设计人员可以紧密集成 NPU,从而加速推理速度、降低能耗,并提升从移动设备到汽车等各行各业的实时 AI 响应能力。它们是全栈推理速度优化的绝佳范例——这也是今年 AI 基础设施峰会的一个关键主题。
张量加速引擎:张量加速器处理大型矩阵乘法,这是 AI 训练和推理的核心。RISC-V 支持自定义张量扩展,让供应商能够针对特定工作负载(例如推荐引擎、语音识别或大型语言模型)优化吞吐量,这对于高效扩展至关重要。
内存计算 (CiM):CiM 架构直接在数据存储位置处理数据,从而减少了内存和处理器之间成本高昂的移动。RISC-V 的可扩展性允许无缝集成 CiM 方法,这对于受功耗和延迟要求限制的边缘 AI 和物联网设备至关重要。
光学或神经形态路径:光学和神经形态计算路径模拟大脑或利用光以极高的效率传输和处理信息。RISC-V 提供了将这些非传统范式与主流计算连接起来的灵活性,从而为下一代 AI 工作负载打造突破性的架构。
就 AI 工作负载而言,Transformer 工作负载(包括 GenAI 和 ChatGPT 等大型语言模型 (LLM))是当今最显著突破的基础。这些模型也支持视觉和多模态系统,严重依赖矩阵乘法和注意力机制。借助 RISC-V,设计人员可以添加针对 Transformer 工作负载进行调优的自定义扩展和加速器,使大规模模型更易于跨平台部署,并提升全栈优化以加快推理速度。
Transformer 的用例包括基础模型训练、大规模推理和服务、融合视觉和语言的多模态模型、处理数百万个标记的长上下文 Transformer,以及药物发现、气候建模和蛋白质折叠等专门的科学和企业应用。
这些由 LLM 驱动的工作负载反映了 AI Infra 峰会上强调的挑战——LLM 性能瓶颈、代理 AI 的可持续性以及对可组合内存基础设施的需求。
硬件和开放软件协同设计
现代芯片开发需要协同设计的思维模式:硬件功能和软件支持必须同步发展。RISC-V 的开放模型使这成为可能,它允许硬件架构师和软件工程师实时协作。新的指令和加速器配备了现成的工具链、编译器和库,开发人员第一天即可使用。这种紧密的反馈循环确保了以 AI 为中心的扩展并非凭空而来,而是反映实际的工作负载需求,并实现端到端的优化。
这一重点也体现了峰会“AI 构建 AI”的主题:设计自动化和生成模型加速芯片和软件协同设计周期。这与 RISC-V 的更广泛理念完美契合:动态开源基础设施框架使 ISA 的演进切实可行。它们使供应商能够快速部署最新的 RISC-V 变体,而不会破坏旧版软件,最终丰富软件生态系统,同时赋能芯片创新。
这一理念在当前定义AI相关指令集扩展的工作中得到了体现。来自Akeana、阿里巴巴、晶心科技、IBM、OpenChip、Rivos、Semidynamics、SiFive、Tenstorrent、Ventana和VRULL的行业领导者正在公开合作,以建立服务于全球AI生态系统的标准。开发集成矩阵扩展 (IME)、矩阵向量扩展 (VME) 和附加矩阵扩展 (AME) 的任务组正在推进高效矩阵运算的能力——这是Transformer和深度学习等现代AI工作负载的基石。
这些努力旨在通过将硬件增强与相应的软件就绪紧密结合,实现高效的矩阵运算,这是深度学习等现代人工智能工作负载的基石。每个设计选择都以数据为依据。在 RISC-V 标准化过程中,工程师们会分析真实的机器学习 (ML) 和高性能计算 (HPC) 工作负载,识别硬件可以解决的软件瓶颈,并使用原型指令模拟“假设”场景。这些矩阵方案清晰地展示了软件需求和来自实际工作负载的经验数据如何直接指导硬件设计决策。
规范草案必须使用严格的定量和定性论证,明确阐述每条指令的原理。软件和硬件的协同设计确保两者相辅相成,避免了孤立式开发经常陷入的“先有鸡还是先有蛋”的陷阱。扩展的合理性需要通过严格的性能分析和性能测量来验证,确保 ISA 的每项新增功能都能解决有意义的问题。RISC-V 扩展坚持以证据为导向的设计和早期软件原型,从而避免了“功能蔓延”,而是专注于对开发人员和最终用户最重要的功能。
至关重要的是,所有这些都是在开放的环境下进行的。编译器、模拟器和库支持早在芯片正式发布之前就已上传到 LLVM、GCC 和Linux 内核中。当芯片正式流片时,软件栈(包括 PyTorch 和 TensorFlow 等机器学习框架)已经充分发挥了其 AI 特性。这种“零日”启动意味着新硬件能够在实际应用中立即提升性能,并为企业提供他们期望的 MLOps、机密计算和安全 AI 带来的可部署性保证。
再次强调,标准化发挥着关键作用。RISC-V“配置文件”将扩展功能捆绑成有保障的功能集,软件开发人员可以放心使用。这种信心还通过在整个生态系统中提供标准化基准,指导企业“自主研发还是外购”的决策。随着 RVA23 平台于 2024 年底获得批准,硬件预计将于 2026 年问世,硬件供应商和软件开发人员都将获得一个值得信赖的平台标准。Canonical、Red Hat 和 NVIDIA 已经承诺提供支持,表明他们有信心他们的贡献将在广泛的 RISC-V 生态系统中继续发扬光大。
这种软硬件协同工程取得了切实的成果。软件升级实现了全新 RISC-V AI 核心的“零日”启动——这意味着硅片从晶圆厂返回的那一刻,Linux 操作系统、编译器和运行时库就已经支持其 AI 功能。其结果是,硬件增强可以立即转化为 AI 应用的实际性能提升,且没有任何延迟。
与此同时,RISC-V 的本质使得公司可以自由地实现自己的指令集;尽管对于如何实现这一点有着严格的流程。为了功耗或性能,公司需要编写直接映射到其定制硬件的库,同时保持应用软件层的一致性。如今,每个供应商都有责任让软件支持这些定制。一个很好的例子就是 AI 软件堆栈,其中存在像 Pytorch 或 TensorFlow 这样的标准。公司可以决定实施指令集,使其软件和硬件的组合能够在功耗或性能等指标上带来显著的优势。应用软件保持一致,但公司需要编写能够充分利用其定制硬件的库。
总而言之,RISC-V 的开放式协同设计方法代表了构建 AI 原生平台的可扩展途径。从第一天起,上游软件生态系统就支持每一项硬件增强功能。工具链、指令集 (ISA) 创新以及满足当前和未来实际 AI 需求的灵活性之间的协同作用,是 RISC-V 的强大差异化优势。这使得 RISC-V 能够以 AI 时代所需的速度,快速交付特定领域的创新。
RISC-V 在现实世界中的应用:切实的动力
RISC-V 已赋能专为应对现代 AI 挑战而设计的 AI 原生芯片。以下公司正在利用 RISC-V 不断突破极限:
1、晶心科技是 RISC-V 国际联盟的创始成员之一,提供全面的 RISC-V IP 核心系列,具有 DSP、矢量和可扩展功能,并由用于自定义指令扩展的自动化工具支持,为从超低功耗传感器节点到数据中心等应用的 SoC 中的 AI 提供支持。
2、Codasip使用其 CodAL 设计语言,为 SoC 开发人员提供可定制的 RISC-V 内核。该公司声称已出货超过 20 亿个内核,其中包括针对 AI/ML 边缘用例定制的配置。
3、NVIDIA提供了大量加速器技术,助力 AI 蓬勃发展。2024年,RISC-V 核心出货量超过 10 亿颗,同时宣布计划将其 CUDA AI 加速堆栈移植到 RVA23 架构。这凸显了 RISC-V 的重要性已超越开放软件生态系统,延伸至主流 AI 应用,成为全球领先专有 GPU 架构的协调者。
4、欧洲集成矩阵扩展 (IME) 先驱及 IP 核供应商Semidynamics最近推出了一款RISC-V 张量单元 (Tensor Unit) ,支持流式工作负载、稀疏/密集张量运算以及 AI 数据流处理。通过将矢量和张量功能嵌入 CPU,Semidynamics 正在应对 2025 年基础设施峰会 (Infra Summit 2025) 上 AI 数据中心领域的核心能效和 PPA 挑战。
5、SiFive 是由 RISC-V 发明者组建的商业供应商,以 IP 形式提供适用于 AI 用例的 CPU 内核——从最低配置的边缘传感器到企业级云基础设施系统。
6、SpacemiT为 AI CPU 开发 RISC-V 处理器——其 Muse Book 和 Deep Computing 的笔记本电脑均搭载了 K1 芯片。即将推出的 64 核 VitalStone V100 处理器采用即将推出的 RVA23 标准,旨在处理服务器级 AI 工作负载。
7、Tenstorrent使用 RISC-V CPU 内核和 chiplet 架构构建高性能 AI 处理器,专注于从边缘到数据中心的可扩展计算。该公司与日本 LSTC 合作开发 2nm AI 加速器,并已开放其 chiplet 规范 (OCA),从而构建了一个可组合、可互操作的芯片生态系统。
8、Ventana提供高性能 RISC-V 处理器和芯片集,专为可扩展的数据中心、人工智能和汽车工作负载而设计。其 Veyron 系列实现了业界领先的单线程性能,并通过 OCP 开放芯片集经济 (OCE) 等开放芯片集标准实现模块化系统集成。Ventana 结合其在计算领域的领先优势和灵活性,加速了 RISC-V 在所有高性能市场的普及。
9、VRULL致力于推进软件堆栈的基础研发,包括运行时系统、工具链优化和流片前探索,以确保 RISC-V 能够发展成为一个真正具备 AI 能力的平台。VRULL 基于实际工作负载和性能建模,对附加矩阵扩展 (AME) 和 IME 的贡献侧重于实现外积运算和其他对 AI 推理至关重要的矩阵模式。
10、玄铁是阿里巴巴达摩院旗下品牌,致力于推动RISC-V在云端到边缘AI领域的发展,设计了玄铁C930等面向AI-HPC应用的服务器级处理器。玄铁还推动编译器和工具链支持,并为新的矩阵扩展标准做出贡献,从而赋能自主的国内基础设施。
在软件方面,最近与 RISE 项目合作推出的 Red Hat Enterprise Linux 10 开发者预览版在 SiFive 的 HiFive Premier P550 上发布,为构建和部署基于 RISC-V 的 AI 工作负载提供了一个成熟的企业级平台。同样,Canonical 正准备在即将发布的 25.10/26.04 版本中提供针对 RVA23 配置文件的 Ubuntu 桌面支持,确保 RISC-V 开发人员拥有稳定、现代的 Linux 发行版。RVA23 将迎来更多这样的里程碑式软件时刻——尤其是 RISC-V 的 CUDA。
llama.cpp等开放项目现已充分利用 128 位 RISC-V 矢量扩展来加速量化推理。在 RISE 计划的支持下,编译器团队正在向 PyTorch 等关键 AI 框架提供对 RISC-V 的上游支持,从而增强兼容性和性能,而无需专有扩展。
这对人工智能开发人员意味着什么?
对于 AI 开发者而言,RISC-V 将硬件格局从专有约束转变为可适应工作负载的开放平台,而非反过来。这种转变能够快速实现创新,支持工作负载专业化,并摆脱供应商锁定。
为了塑造和创新 AI 基础设施的未来,开发人员必须抓住 RISC-V 的机遇。具体方法如下:
探索与应用:探索不断壮大的 RISC‑V IP 核、开发板和工具链生态系统,以及它们在全栈推理优化中的作用。将 RISC‑V 集成到您的下一代 AI 系统中(无论是在边缘还是云端),并体验 AI 原生硬件的实际应用。
贡献与协作:加入 RISC-V 国际组织——开放 ISA 背后的标准制定机构。个人会员免费,可加入工作组;企业会员则可按等级加入,从普通会员到高级会员,并支付相关费用和享受治理优势。如果您是软件开发者,不妨考虑加入 RISE AI/ML 工作组——Linux 基金会旗下的社区主导倡议,助力推动 RISC-V 的 AI 软件成熟。该工作组致力于促进 PyTorch、TensorFlow、TFLite 和 llama.cpp 等框架的协作,确保它们在 RISC-V 上发挥最佳性能,并直接影响 LLM 性能和代理 AI 的就绪性。
创新与优化:利用 RISC-V 的开放模块化 ISA 共同设计定制硬件和软件。根据您的工作负载定制扩展功能(例如矢量、张量或矩阵运算),在每一层实现前所未有的能效和延迟改进,同时不牺牲可移植性。
提升软件成功率:通过将 RISC-V 作为日常开发平台来加速价值实现的开发者将获得成功。获得实际操作硬件至关重要,但在搭载 RISC-V 的笔记本电脑上工作也同样重要。事实上,您现在可以为 Framework Laptop 13 购买 DeepComputing RISC-V 主板,将模块化笔记本电脑转变为功能齐全的 RISC-V 工作站,并允许您通过在 RISC-V 上运行 RISC-V 进行构建。这种真实的环境可以增强早期采用者的信心,加快移植速度,并深化工具链级别的熟练程度。当然,如果您更愿意从小处着手,即使是 5 美元的 Raspberry Pi Pico 2 也配备了 RISC-V 硬件供您尝试——我们期待 2026 年推出兼容 RVA23 的全新开发板。
简而言之,RISC-V 颠覆了传统模式:硬件现在可以适应现代 AI 软件的实际情况。对于那些构建下一代模型、框架和平台的人来说,这意味着更快的迭代速度、更短的价值实现时间(进而降低成本),以及从创新到影响的直接路径。
https://riscv.org/blog/2025/09/risc-v-ai-native/
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4150期内容,欢迎关注。
加星标第一时间看推送,小号防走丢
求推荐
半导体行业观察
2025-09-08
半导体行业观察
2025-09-08
半导体行业观察
2025-09-08
半导体行业观察
2025-09-08
半导体行业观察
2025-09-08
半导体行业观察
2025-09-08
证券之星资讯
2025-09-08
证券之星资讯
2025-09-08
证券之星资讯
2025-09-08