登录
注册
AI 存储架构已演化为六个明确层级,从片上 SRAM 延伸至云对象存储,2025 年该领域总市场规模预计达 2290 亿美元。其中,DRAM 占据半壁江山,HBM 贡献 15%,SSD 占比 11%。这一层级体系的核心逻辑在于距离计算单元的远近:越靠近算力核心,存储延迟越低,但容量越小;反之则容量巨大但传输瓶颈显著。午方 AI 梳理发现,当前每一层级的利润池均呈现极度寡头化特征,前三名厂商普遍占据超过 90% 的市场份额,形成了稳固的垄断格局。
在利润最丰厚的硅片层,HBM(高带宽内存)凭借 TSV 硅通孔工艺与 CoWoS 先进封装,成为决定 AI 加速器模型上限的关键。SK 海力士、三星与美光三家几乎垄断了 100% 的市场,其中 SK 海力士在 2026 年第一季度以 57% 至 62% 的市占率领跑,并拿下了 NVIDIA 的大量订单。受限于 TSV 工艺对传统 DRAM 产能的挤占以及先进封装良率爬坡的困难,HBM 长期处于供不应求状态。2026 年第一季度,SK 海力士营业利润率飙升至创纪录的 72%,甚至超越了台积电的 58.1% 和 NVIDIA 的 65%。美光预测 HBM 总潜在市场将从 2025 年的 350 亿美元以 40% 的复合年增长率扩张至 2028 年的 1000 亿美元,这一时间节点比此前预测提前了两年。
主板 DRAM 作为 AI 存储体系中销售额占比最高的部分,2025 年全球规模达 1218.3 亿美元,涵盖 DDR5、LPDDR 等常规产品。尽管单一产品利润率不及 HBM,但三星、SK 海力士和美光凭借产能向高利润 HBM 倾斜的策略,依然维持了整体的高定价权。截至 2025 年第四季度,三星以 36.6% 的市占率稳居第一,SK 海力士以 32.9% 紧随其后,美光占 22.9%。
与此同时,片上 SRAM 虽不单独交易,但其价值已深度嵌入台积电的先进工艺晶圆营收中,全球超 70% 的先进工艺晶圆由台积电掌控,每一代 AI 芯片对 SRAM 面积的渴求直接转化为台积电的业绩增长。
互连层的 CXL(Compute Express Link)技术正在重塑内存架构,允许将 DRAM 从单台服务器池化至整个机架,实现多 GPU 共享调度,有效解决 AI 推理中 KV cache 与向量数据库的容量瓶颈。午方 AI 注意到,CXL 内存模块市场虽在 2024 年仅 16 亿美元,但预计到 2033 年将激增至 237 亿美元。在这一细分领域,Astera Labs 凭借 CXL 与 PCIe 之间的重定时器及智能内存控制器占据约 55% 的份额,最新季度营收达 3.08 亿美元,同比增长 93%,非 GAAP 毛利率高达 76.4%,展现出极高的盈利爆发力。
企业级 NVMe SSD 层则是 AI 训练检查点、RAG 索引及模型权重缓存的主战场,QLC 大容量 SSD 已彻底取代 HDD 在 AI 数据湖中的地位。2025 年该市场规模约 261 亿美元,预计 2030 年将达到 760 亿美元,复合年增长率达 24%。市场格局依旧由三星、SK 海力士(含 Solidigm)、美光、Kioxia 等巨头把持,前五名合计份额约 90%。其中,Solidigm 与 Kioxia 推出的 122 TB 单碟容量产品,标志着 AI 推理负载正从 HBM 外溢至 SSD,带来容量驱动与推理扩张的双重红利。
最外层的 NAS 与云对象存储构成了 AI 数据湖与备份归档的基础,2025 年 NAS 市场规模约 396 亿美元,云对象存储约 91 亿美元。该层级利润主要源于长期托管、数据出网费及生态锁定,AWS、Azure 和 Google Cloud 三家合计占据云对象存储约 65% 至 70% 的份额。午方 AI 分析认为,未来五年 AI 存储的利润增量将主要来自 HBM、企业级 SSD 及 CXL 池化三个方向,其中越靠近算力的层级,技术壁垒越高,稀缺性越强,毛利率也越惊人,从 DRAM 的 30%–40% 跃升至 HBM 的 60% 以上,再到 CXL 重定时器的 76% 以上,清晰勾勒出 AI 时代的产业价值分布图。