来源:智通财经
2025-09-23 16:18:13
(原标题:广发证券:推理驱动AI存储快速增长 建议关注产业链核心受益标的)
智通财经APP获悉,广发证券发布研报称,随着AI推理应用快速增长,对高性能内存和分层存储的依赖愈发显著,HBM、DRAM、SSD及HDD在超长上下文和多模态推理场景中发挥关键作用,高带宽内存保障模型权重和激活值的高速访问,SSD满足高频读写与短期存储需求,HDD提供海量长期存储支持。随着AI推理需求快速增长,轻量化模型部署推动存储容量需求快速攀升,预计未来整体需求将激增至数百EB级别。建议关注产业链核心受益标的。
广发证券主要观点如下:
AI服务器中的存储主要包括HBM、DRAM、SSD等
AI服务器中的存储主要包括HBM、DRAM、SSD等,呈现性能逐级下降、容量逐级增加、成本逐级降低特征。访问频繁或者随时变更的数据会保留在较高的存储层,例如性能高的层次如CPU/GPU缓存、高带宽内存(HBM)和动态RAMS;而鲜少访问或需要长期保存的数据将移动到较低的存储层,例如SSD和硬盘驱动器。
AI推理中的分级存储协同支撑高效计算
HBM集成于GPU内部,为权重和激活值提供高带宽临时缓冲,支撑并行计算和低延迟推理。DRAM作为系统内存,存储中间数据、批处理队列及模型输入输出,实现CPU与GPU间高效数据传递。本地SSD用于实时加载模型参数和数据,满足高频读写需求,并存储短期检查点与临时生成内容,支撑快速迭代。HDD提供经济大容量,用于保存原始数据、历史检查点及生成内容,保障系统长期运行与数据安全。整体来看,HBM与DRAM提供即时高性能支撑,SSD保证快速可用数据,HDD则保障容量与可靠性,构建从高速临时访问到长期存储的完整AI 推理生态。
推理驱动AI存储快速增长
内存受益于超长上下文和多模态推理需求,处理大量序列数据或多模态信息时,高带宽与大容量内存可降低访问延迟、提升并行效率。例如月之暗面Mooncake 通过存储资源重构实现计算效率跃迁,Vera Rubin CPX NVL144机柜新增GDDR7,AMD MI400升级为MRDIMM 模组,华为UCM 推理记忆数据管理器实现智能调度,共同支撑复杂模型在长序列和多模态场景下的高性能推理。
SSD和HDD是Tokens的积分。对推理所需SSD、HDD需求进行测算,基于以下关键假设:假设一、参考谷歌2025.06单月处理超980万亿tokens,假设中短期内全球谷歌级推理应用数量达到10个;假设二、假设推理端数据均存储为FP16格式;假设三、除模型输入输出文本数据以外,在长上下文场景下,存储数据也包含额外调试/分析信息,比如top-k log logprobs、时间戳、JSON 元数据等。由此测算,2026年10个谷歌级推理应用所需存储容量为49EB。
风险提示
AI产业发展以及需求不及预期;AI服务器出货量不及预期,国产厂商技术和产品进展不及预期。
智通财经
2025-09-23
智通财经
2025-09-23
智通财经
2025-09-23
智通财经
2025-09-23
智通财经
2025-09-23
智通财经
2025-09-23
证券之星资讯
2025-09-23
证券之星资讯
2025-09-23
证券之星资讯
2025-09-23