人工智能驱动的存储市场规模和份额
人工智能驱动的存储市场分析
人工智能驱动的存储市场规模预计到 2025 年为 270.6 亿美元,预计到 2030 年将达到 766 亿美元,预测期内(2025-2030 年)复合年增长率为 23.13%。
此次扩展反映了企业正在加速迈向需要低延迟、PB 级容量和持续带宽的生成式人工智能 (GenAI) 工作负载。新的人工智能基础设施堆栈已将存储从实用存储库转变为实时推理、模型训练管道和连续数据工程周期的性能关键。将架构与以 GPU 为中心的计算、NVMe over Fabrics (NVMe-oF) 传输和 AI-Ops 自动化相结合的供应商将自己定位为在 AI 驱动的存储市场中获取巨大价值。
关键报告要点
- 按部署模式划分,云在 AI 驱动的存储市场中占据了 2024 年收入的 47.60%存储市场,而混合配置预计到 2030 年将以 25.70% 的复合年增长率扩张。
- 从存储架构来看,到 2024 年,全闪存阵列将占据人工智能驱动的存储市场份额的 40.90%;到本十年末,NVMe-oF 系统的复合年增长率为 27.80%。
- 按组件划分,硬件占 2024 年支出的 64.10%,但随着企业寻求专业的 AI-Ops 技能,服务代表了增长最快的部分,复合年增长率为 30.60%。
- 从最终用户行业来看,IT 和电信将在 2024 年占据 26.57% 的份额,而医疗保健和生命科学在人工智能驱动的诊断和发现工作流程的支持下,复合年增长率将达到 28.70%。
- 按地理位置划分,2024 年北美将占据人工智能存储市场收入的 38.70%;亚太地区是增长引擎,到 2030 年复合年增长率为 25.10%。
全球人工智能驱动的存储市场趋势和见解
驱动因素影响分析
| GenAI 工作负载爆炸 | +8.2% | 全球,主要集中在北美和亚太地区 | 短期(≤ 2 年) |
| 企业转向本地 AI | +5.1% | 北美和欧洲,扩展到亚太地区 | 中期(2-4 年) |
| 闪存/NV美元/GB 自由落体 | +3.8% | 全球 | 短期(≤ 2 年) |
| 以 GPU 为中心的服务器设计 | +4.3% | 全球,以北美为主导 | 中期(2-4 年) |
| 主权云数据驻留规则 | +2.9% | 亚太地区核心,溢出到欧洲和中东和非洲 | 长期(≥ 4 年) |
| 新兴人工智能数据生命周期平台 | +2.2% | 全球,伯爵北美地区的采用 | 长期(≥ 4 年) |
| 来源: | |||
GenAI 工作负载爆炸
PB 级训练集和微秒级推理服务级别协议已将存储 I/O 跃居 AI 瓶颈列表的首位。大型语言模型需要持续的多太比特吞吐量,即使错过一个性能目标也会将训练周期从几天延长到几周。在部署将 GPU 集群与闪存优先阵列配对的 Dell-NVIDIA GenAI 堆栈后,Northwestern Medicine 的放射学工作流程提升了 40% [1]HPE,“基于 HPE Alletra Storage MP 构建的 HPE GreenLake for Block Storage,” hpe.com。企业现在将存储延迟和带宽视为竞争差异erentiators,将预算专门用于使 GPU 保持充分供电而不是闲置的架构。因此,人工智能驱动的存储市场正在获得巨大的动力。
企业转向本地人工智能
金融服务、医疗保健和公共部门组织正在恢复本地数据处理,以满足主权要求并降低延迟风险。纽约梅隆银行在其自己的数据中心采用 NVIDIA DGX SuperPOD 展示了受监管行业如何将本地计算与高性能 NVMe 结构相结合,以实现实时欺诈分析,同时保留治理。在本地对敏感数据进行分片并将开发工作负载推向云端的混合策略正在扩大企业级存储设备的可寻址基础,进一步推动人工智能驱动的存储市场的增长。
闪存/NVMe 美元/GB 自由落体
尽管价格周期性上涨,但长期 NAND 轨迹仍然向下,使企业能够交换在没有预算冲击的情况下旋转闪存媒体。三级和四级单元技术的更广泛部署降低了全闪存阵列成本曲线,使中端市场买家能够实现持续的多 GB/秒吞吐量。供应商将不断下降的成本基础转化为为人工智能管道量身定制的一级性能平台,从而加速了人工智能驱动的存储市场的发展。
以 GPU 为中心的服务器设计
下一代服务器颠覆了历史上以 CPU 为中心的优先事项,而是通过 GPU 利用率来衡量有效性。因此,存储必须为众多加速器提供连续、并行、低延迟的读取和写入。围绕 NVIDIA Blackwell GPU 构建的 HPE AI Factory 系统展示了紧密耦合的存储子系统如何保持每个节点高达 20-30 GB/s 的速度,以防止资源匮乏。该设计支点重新定义了数据中心蓝图,提升了 NVMe-oF 的采用率,并推动供应商提供机架级参考架构。
限制影响分析
| 数据中心的电力和制冷限制 | -3.4% | 全球性,密集城市地区的影响 | 短期 (≤ 2年) |
| AI-Ops 存储调整方面的技能差距 | -2.1% | 全球,新兴市场最为严重 | 中期 (2-4年) |
| ASIC/加速器供应商锁定 | -1.8% | 全球,集中在企业细分市场 | 中期(2-4 年) |
| 闪存供应波动导致资本支出激增 | -1.9% | 全球 | 短期(≤ 2 年) |
| 来源: | |||
数据中心的电源和冷却限制
GPU 机架现在的功耗为 40-140 kW,而传统服务器的功耗低于 15 kW。热围护结构迫使液体冷却改造和动力链升级,从而增加了资本成本并延长了部署窗口。存储阵列必须在这些密集的热力学空间中共存而不会受到限制,迫使设计人员采用节能控制器和驱动技术。
AI-Ops 中的技能差距存储调优
实现线速 GPU 利用率需要跨越存储结构、AI 框架和工作负载编排的跨学科专业知识。全球人才短缺导致许多阵列配置不足,导致企业受挫并延迟投资回报。供应商通过自动分层、策略驱动的服务质量和基于订阅的优化服务来应对,但能力不足仍会抑制近期增长。
细分分析
按部署模式:混合配置推动企业采用
混合部署预计将实现 25.70% 的复合年增长率2030 年,突显了企业跨越云敏捷性和本地主权的愿望。尽管云保留了 2024 年收入的 47.60%,但将延迟敏感推理固定在靠近用户的同时将模型训练卸载给超大规模企业的能力使混合成为战略默认选项。何长庚纪念馆spital 的 AIRI 推出展示了医学成像推理如何保持本地化,同时模型再训练爆发到云端,维持合规性和成本效率 [2]Pure Storage Press Office, “Chang Gung Memorial Hospital Deploys AIRI for Hybrid AI,” purestorage.com。 AI 驱动的存储市场受益于这种双站点策略,因为每个位置仍然需要 PB 级闪存和 GPU 优化的吞吐量。
单独的管理域也提高了服务需求:企业寻求跨不同资产的统一可见性、数据复制工作流程和 AI-Ops 遥测。利用跨站点重复数据删除和自动分层的供应商将以前脆弱的孤岛转变为策略驱动的数据结构,从而在人工智能驱动的存储市场中赢得份额。
按存储架构:NVMe-oF Systems Reshape Performance范式
全闪存阵列控制着2024年支出的40.90%,巩固了其作为人工智能生产集群基准的作用。然而,随着组织追求跨分布式网络的直连级延迟,NVMe-oF 预计每年增长 27.80%。早期采用者表示,从基于 TCP 的阵列迁移到专用 NVMe-oF 结构后,GPU 利用率提高了 70-80%,从而缩短了 GenAI 训练周期的天数。与 NVMe-oF 架构相关的人工智能存储市场规模预计将随着 GPU 集群的推出而成比例增长,从而巩固其在高端企业预算中的地位。 混合层和对象层保留了归档和预处理阶段的角色,但人工智能批处理管道越来越多地将热数据集汇集到持久内存或 PCIe Gen 5 NVMe 层上。软件定义的方法赢得了希望供应商中立和快速功能迭代的运营商的青睐。
按组件:服务加速反映复杂性增长
到 2024 年,硬件占据了人工智能驱动的存储市场价值的 64.10%,但托管和专业服务的复合年增长率为 30.60%,因为企业往往缺乏内部人工智能运营深度。因此,存储供应商转变为解决方案提供商,捆绑设计研讨会、数据迁移手册和持续优化计划。由于买家优先考虑基于结果的合同而不是资产购买,因此与服务相关的人工智能存储市场份额预计到十年中期将翻一番。
自主分层引擎、压缩算法和数据管道编排器等软件元素占其余部分。这些组件嵌入了人工智能模型,可以预测访问模式并动态平衡 NAND 池中的磨损水平,进一步提升持续性能指标。
按最终用户行业:医疗保健引领创新采用
IT 和电信利用人工智能,占 2024 年支出的 26.57%用于网络优化和客户体验引擎的存储。到 2030 年,医疗保健和生命科学领域将以 28.70% 的复合年增长率位居发展最快的领域。高分辨率医学成像、多组学数据集和人工智能驱动的候选药物筛选创建了多太比特的每日摄取流,需要无损的闪存层容量。预计到 2030 年,面向医疗保健的阵列的人工智能存储市场规模将突破 200 亿美元,相对于其他垂直行业,将占据更大的钱包份额。
BFSI 实体加速依赖交易图微批量更新的欺诈检测模型,而媒体公司则将未压缩的 8K 视频工作流程推入人工智能辅助编辑平台。政府机2024 年源于集中在阿什本、圣克拉拉和达拉斯的超大规模产业,以及大学和国家实验室的研究集群。 CoreWeave 以 90 亿美元收购 Core Scientific,增加了 1.3 GW 的 GPU 就绪容量,彰显了支撑区域主导地位的资本规模。竞争动态仍然激烈但成熟,企业对经过验证的参考堆栈进行标准化,并将支出转向生命周期管理服务而不是原始设备。
亚太地区 25.10% 的复合年增长率源于中国工业和信息化部宣布的主权人工智能战略、印度的数字印度 2.0 政策和新加坡的人工智能验证计划。国内芯片计划,例如三星的 CXL 2.0 DRAM 和 NAVER 合作,加强了本土供应链 [3]三星新闻编辑室,“三星和 NAVER 合作开发超大规模 AI Semiconductors,”samsung.com。政府为雅加达、胡志明市和海得拉巴的超大规模建设提供了承保,从而为尊重数据局部性法规的人工智能调整存储结构创造了快速的后续需求。
欧洲、中东和非洲以及南美洲结合了不同的成熟度概况。欧洲的发展轨迹围绕着人工智能法案合规性和节能数据中心的要求。中东的资金来源通过主权财富基金开展千万亿级项目,阿联酋的人工智能数据中心资产目标为 30-500 亿欧元,南美电信在边缘交换机部署人工智能推理,以改善频谱分配,需要紧凑、坚固的 NVMe 阵列。
竞争格局
竞争适度分散,在 1-10 集中度范围内得分为 6,因为排名前五的供应商合计占 Dell Techno 2024 年收入的 55-60%。logies、NetApp 和 HPE 利用根深蒂固的渠道覆盖和跨产品组合集成。 Pure Storage 通过捆绑到与 NVIDIA 共同设计的参考架构中的全闪存阵列抢占市场份额,而 VAST Data 和 DDN 则专注于 EB 级、单一命名空间设计,优先考虑线性 GPU 馈送速率。
战略合作伙伴关系主导着上市执行。 Pure Storage 投资了 CoreWeave 的股权,以保证 AI 云租户的容量预留,而 NetApp 通过 Intel Gaudi 加速器验证了 AIPod Mini 节点,缩短了中型企业的采购周期 [4]NetApp Newsroom,“NetApp 和 Intel Introduce AIPod Mini”, netapp.com。几轮融资凸显了投资者的信念:DDN 以 50 亿美元的估值从 Blackstone 获得了 3 亿美元,用于资助产品扩张,Wasabi 收购了 Curio AI,将对象存储与自动元数据提取。
现有企业通过嵌入 AI-Ops 遥测和提供基于消费的定价来对抗颠覆者。与此同时,超大规模企业通过双源供应商 SKU 降低供应链风险,鼓励模块化、标准驱动的设计。结果是专门从事特定领域加速器的新进入者进行了稳定整合,确保没有任何一家供应商能够主导人工智能驱动的存储市场。
最新行业发展
- 2025 年 7 月:AWS 推出了 S3 Vectors,将 AI 原生索引添加到其旗舰对象存储中,以便在 GenAI 中更快地检索
- 2025 年 7 月:Wasabi 收购 Curio AI,以实现元数据标记自动化并改善媒体工作流程的非结构化数据经济性。
- 2025 年 7 月:CoreWeave 同意以 90 亿美元的股票交易收购 Core Scientific,增加 1.3 GW 的 AI 就绪数据中心容量。
- 2025 年 6 月:HPE 推出了基于 NVIDIA Blackwell GPU 构建的 AI Factory 解决方案,并将其与 Alletra Storage MP X10000 搭配使用,以提供 AI 就绪的文件服务。
FAQs
是什么推动了人工智能存储市场的快速增长?
爆炸性的 GenAI 工作负载、每 GB 闪存成本的下降以及向以 GPU 为中心的服务器的转变增加了对低延迟、为模型训练和推理管道提供数据的高带宽存储。
为什么混合部署比纯人工智能云存储更受欢迎?
混合模型让企业在本地保留敏感数据以实现合规性和延迟,同时利用云突发容量进行大规模培训,从而提供最佳的经济性和控制力。
哪种存储架构在人工智能驱动的存储市场中增长最快?
NVMe-oF 系统预计将以 27.80% 的复合年增长率增长,因为它们跨网络扩展了 PCIe 级延迟,从而提高了分布式 AI 集群中的 GPU 利用率。
AI-Ops 存储调优方面的技能差距有多严重?
能够针对 AI 工作负载优化闪存结构的专业人员的短缺足以使预测复合年增长率减少 2.1 个百分点,从而推动托管需求服务。





