高性能计算市场规模和份额
高性能计算市场分析
2025年高性能计算市场规模为557亿美元,预计到2030年将达到833亿美元,复合年增长率为7.23%。势头正在从纯粹的科学模拟转向以人工智能为中心的工作负载,因此需求正在转向富含 GPU 的集群,这些集群可以在运行基于物理的代码的同时训练基础模型。主权人工智能计划正在促使政府买家与超大规模企业直接竞争相同的加速系统,从而收紧供应并增强了能够控制密集功率范围的液冷架构的吸引力。硬件仍然是采购预算的支柱,但由于组织更喜欢与不可预测的人工智能需求曲线相匹配的按使用付费模式,托管服务和 HPC 即服务正在迅速增长。并行市场驱动因素包括更广泛地采用混合部署、加速生命科学管道
关键报告要点
- 按组件划分,硬件在 2024 年将占据 55.3% 的收入份额;预计到 2030 年,服务将以 14.7% 的复合年增长率增长。
- 按部署模式划分,到 2024 年,本地环境将占据高性能计算市场 67.8% 的份额,而基于云的系统到 2030 年将以 11.2% 的复合年增长率增长。
- 按芯片类型划分,CPU 到 2024 年将占据 23.4% 的份额,而到 2030 年,GPU 的复合年增长率将达到 10.5%
- 按照工业应用,政府和国防将在 2024 年占据 24.6% 的份额;到 2030 年,生命科学与医疗保健将以 12.9% 的复合年增长率增长。按地理位置划分,到 2024 年,北美将占据高性能计算市场规模的 40.5%;亚太地区的复合年增长率最快,为 9.3%。
全球高位h 性能计算市场趋势和见解
驱动因素影响分析
| 影响时间线 | |||
|---|---|---|---|
| 美国联邦实验室和一级云提供商的 AI/ML 培训工作量激增 | +2.1% | 北美,溢出到欧洲和亚太地区 | 中期(2-4 年) |
| 亚洲制药外包中心对 GPU 加速分子动力学的需求激增 | +1.8% | 亚太核心,特别是印度、中国和日本 | 长期(≥ 4 年) |
| 欧盟 EURO-NCAP 2030 路线图中强制性汽车 ADAS 仿真合规性 | +1.2% | 欧洲主要,北美次要 | 中期(2-4 年) |
| 国家百兆级计划推动中国和印度本土处理器采用 | +1.5% | 亚太地区,具有全球战略影响 | 长期(≥ 4 年) |
| 来源: | |||
美国联邦实验室和一级云提供商的 AI/ML 培训工作量激增
联邦实验室现在围绕混合 AI 和模拟能力进行采购设计,有效地将高性能计算市场中可满足的峰值性能需求增加了一倍。卫生与公众服务部将 AI 就绪计算作为其 2025 年研究战略的核心,促使实验室购买在百亿亿次模拟和 1 万亿参数模型训练之间枢转的 GPU 密集型节点。[1]Department of Health and Human Services, “Strategic Plan for Artificial Intelligence 2025,” hhs.gov ">[1]健康与人类服务部,“2025 年人工智能战略计划”,hhs.gov 能源部在 2025 财年为 AI-HPC 融合筹集了 11.52 亿美元。[2]科学和技术信息办公室,“2025 财年预算请求”,osti.gov 一级云以融合 FIPS 验证的安全性和先进加速器的主权 AI 区域作为回应,行业追踪者估计 2024 年上半年 AI 基础设施支出的 70% 用于以 GPU 为中心的设计。因此高性能计算市场高端系统价值得到结构性提升,但组件短缺加剧了价格波动。供应商现在捆绑液体冷却、光学互连和零信任固件来赢得联邦奖项,从而重塑了渠道。
亚洲制药外包中心对 GPU 加速分子动力学的需求激增
印度、中国和日本的合同研究组织正在扩展 DGX 级集群,以缩短先导分子进入临床的路径。由 Mitsui & Co. 和 NVIDIA 于 2024 年推出,为日本制药商提供专用 H100 实例[3]Mitsui & Co., “Tokyo-1 Supercomputer Launch,” iptonline.com 印度的 CRO 行业预计到 2030 年将达到 25 亿美元复合年增长率为 10.75%,将人工智能驱动的目标识别置于经典动力学之上,增强了对云交付超级计算的需求。研究人员现在推动 GENESIS 软件模拟 16 亿个原子,开启了对大蛋白质相互作用的探索。这种能力巩固了外包发现领域的区域领导地位,并扩大了亚太地区对全球加速器供应线的影响力。对于高性能计算市场,制药工作负载可以作为对抗周期性制造需求的反周期对冲工具。
欧盟 EURO-NCAP 2030 路线图中强制执行汽车 ADAS 仿真合规性
新的欧洲协议要求 OEM 厂商证明数百万个虚拟驾驶场景,从而使数字验证成为可能n 新的黄金标准。 2024 年 11 月的 NHTSA 路线图呼应了这一预期,标志着围绕模拟优先安全证据的全球协调。[4]NHTSA,“NCAP 2033 路线图”,nhtsa.gov 西门子和其他工具供应商打包了场景数据库、物理解算器、以及针对 GPU 集群优化的传感器融合模型。制造商现在建立内部计算场,因为云延迟可能会阻碍硬件在环周期。该法规为高性能计算市场注入了稳定的需求,但也集中了需要确定性延迟和现场数据托管的汽车一级厂商的购买决策。
推动中国和印度采用本土处理器的国家百兆亿级计划
印度国家超级计算任务到 2024 年 12 月部署了九个 PARAM Rudra 系统,并为 2024 年 9 月推出的三台本土超级计算机提供了基础。中国电信运营商计划从国内供应商采购 17,000 台人工智能服务器,价值近 300 亿元人民币(41 亿美元),快速发展本地加速器生态系统。 Ola 的 Krutrim 部门将在 2026 年推出首款印度人工智能芯片。这些举措将打破传统供应链,促进 RISC-V 和 ARM 设计,减少西方现有企业的出口量,同时扩大全球高性能计算市场总量。
限制影响分析
| 全球 HBM3e 内存短缺限制 GPU 服务器出货量2024-26 | -1.8% | 全球性,对亚太制造业影响尤为明显 | 中期(2-4 年) |
| 美国易发生干旱州的数据中心用水限制逐步升级 | -1.4% | 北美主要,对全球数据中心选址产生影响 | 短期(≤2年) |
| 超低延迟边缘要求破坏集中式云经济 | -0.8% | 全球,重点关注发达市场 | 中期(2-4 年) |
| 来源: | |||
美国易发生干旱的州不断升级数据中心用水限制
弗吉尼亚州和马里兰州立法强制披露用水量,而菲尼克斯则试点微软的零水冷却,每年为每个站点节省 1.25 亿升水。公用事业公司现在限制新的兆瓦连接,除非运营商承诺进行液体或后门热交换。资本支出可能会攀升 15-20%,挤压高性能计算市场的回报门槛,并促使转向沉浸式或合作空气系统。因此,冷板歧管和介电流体的供应商获得了优势。运营商将站点分散到气候凉爽的地区,但延迟和数据主权政策限制了搬迁选择,因此必须通过设计创新而不是搬迁来解决冷却水紧张问题。
HBM3e 内存全球短缺限制 2024-26 年 GPU 服务器出货量
HBM3e d尽管三星拥有 12 层堆叠且 SK 海力士不断提高中介层产能,但需求量仍超过了晶圆开工量。中国买家提前下达了 2024 年订单,以规避美国出口管制,推动 HBM 季度收入增长 70%。台积电的 CoWoS 封装积压延长了 GPU 的交货时间,将高端集群的交付时间限制在 2026 年中期。许多集成商现在提供半填充的内存堆栈,限制了早期采用者的模型批量大小和模拟网格分辨率。这一限制使预计的高性能计算市场复合年增长率下降了 1.8 个百分点,但也引发了对替代内存层次结构的投资,例如附加 CXL 的 DRAM 池。
细分分析
按组件:服务驱动转型
硬件占 2019 年高性能计算市场规模的 55.3% 2024 年,反映了服务器、互连和并行存储方面的持续支出。然而,托管产品的复合年增长率为 14.7%并重塑了采购逻辑,因为首席财务官更看重运营支出而不是折旧资产。系统 OEM 嵌入了计量挂钩,因此集群可以按节点小时计费,反映超大规模云经济。人工智能推理管道的加速增加了不可预测的突发需求,推动企业转向避免容量搁浅的消费模式。联想的 TruScale、戴尔的 Apex 和 HPE 的 GreenLake 现在将超级计算节点、调度程序软件和服务级别协议捆绑在一张发票中。供应商通过交钥匙液体冷却和光学技术将部署周期从数月缩短至数周,从而脱颖而出。
服务的势头表明,未来的价值将集中在编排、优化和安全包装器上,而不是商品主板数量上。迁移有限元分析或组学工作负载的企业喜欢透明的每项工作成本核算,将计算使用与拨款资金或制造里程碑保持一致。合规团队还更喜欢能够保持数据在本地,但允许峰值溢出到提供商运营的附件空间。因此,高性能计算市场将走向以裸机购买和完整公有云租赁为端点,客户本地即用即付方式位于中间的频谱。
按部署模式:混合模型出现
本地基础设施在 2024 年占据高性能计算市场份额的 67.8%,因为关键任务代码需要确定性延迟和严格的数据治理。然而,随着加速实例变得更容易按分钟租用,云驻留集群到 2030 年将以 11.2% 的复合年增长率增长。共享主权框架使各机构可以将敏感数据集保存在本地磁盘上,同时将匿名工作负载爆发到商业云上。 CoreWeave 与 OpenAI 签订了一份价值 119 亿美元的五年协议,表明专业的 AI 云如何吸引公共和私人客户。系统架构师现在设计软件定义的结构,可以重新安排配置容器在站点之间无缝连接。
混合采用可能会在未来占据主导地位,混合边缘缓存节点、本地液冷机架和租赁 GPU 吊舱。 Omnipath 或 Quantum-2 InfiniBand 等互连抽象允许调度程序忽略物理位置,将每个加速器视为一个池。该功能使工作负载布局成为由成本、安全性和可持续性而非拓扑驱动的策略决策。因此,高性能计算市场演变成一个联合资源网络,其中采购策略以带宽经济性和数据出口费用为中心,而不是资本支出。
按芯片类型:GPU 势头增强
由于标量代码仍受内存带宽限制,CPU 提供了 2024 年收入的 23.4%,但随着变压器模型占主导地位,GPU 的复合年增长率为 10.5%。 NVIDIA 在 2026 财年第一季度由 Hopper 级加速器驱动的数据中心销售额达到 225.63 亿美元。 AMD 20 年第一季度营收突破 37 亿美元25 数据中心收入,反映了 Instinct MI300 的强劲部署。与此同时,英特尔转向 Gaudi-3 并为外部设计师提供代工服务。高性能计算市场现在青睐将 CPU、GPU 和专用 ASIC 块与硅光子链路相结合的异构架构。
开发人员将传统 MPI 代码重构为 CUDA、SYCL 或 HIP 内核,以提高 GPU 速度,尽管内存限制仍然是限制因素。新兴的 CXL 连接池有望将容量与加速器包分离。到十年中期,拓扑灵活性将比峰值浮点指标更能定义系统竞争力,集成多芯片一致性的供应商将获得巨大的钱包份额。
按工业应用:生命科学加速
政府和国防保留了 2024 年收入的 24.6%,但生命科学在人工智能加速的药物发现的支持下实现了最快的 12.9% 复合年增长率。医药用户组合具有分子动力学的大语言模型可以及早修剪化合物库。 Lantern Pharma 的 RADR 引擎现在摄取 1000 亿个数据点,以对基因组特征进行优先级排序。与此同时,富士胶片将在精确的生物过程模拟的支持下,到 2030 年将抗体产能提高到 750,000 升以上。监管机构接受 IND 申请中的计算机证据,进一步巩固了计算作为瓶颈的地位。
传统地震建模、CFD 和天气研究继续代表稳定的基线需求,但以人工智能为中心的垂直领域提供增量增长。生命科学即服务联盟现在采购共享亿亿级分区,以便中型生物技术公司可以提交排队运行。这种结构使访问民主化并扩大了整个可寻址的高性能计算市场。为组学、冷冻电镜和生成药物设计预先打包经过验证的工作流程的供应商比那些运送裸铁的供应商实现了更快的销售周期。
地理分析
随着联邦机构向旨在实现节能制造的 HPC4EI 计划注入 700 万美元,北美将在 2024 年占据高性能计算市场的 40.5%。 CHIPS 法案激发了超过 4500 亿美元的私人晶圆厂承诺,为到 2032 年占全球半导体资本支出 28% 奠定了基础。到 2030 年,数据中心电力消耗可能会攀升至 490 TWh;因此,易发生干旱的州立法了水中性冷却,将新容量转向浸没式和后门液体回路。超大规模企业加快了自行设计的 GPU 项目,增强了区域主导地位,但也收紧了 HBM 模块的本地供应。
在主权计算议程和制药外包集群的推动下,亚太地区的复合年增长率高达 9.3%。中国运营商拟采购1.7万台AI服务器,主要来自浪潮和华为,新增国内订单41亿美元。印度的九个 PARAM Rudra 装置和即将推出的 KruTrim AI芯片构建垂直整合的生态系统。日本利用 Tokyo-1 为国内大型制药商快速进行临床候选药物筛选。这些投资通过将资本激励与当地人才和监管要求相结合,扩大了高性能计算市场规模。
欧洲通过 EuroHPC 保持发展势头,运行 LUMI(386 petaflops)、Leonardo(249 petaflops)和 MareNostrum 5(215 petaflops),其中 JUPITER 有望成为该地区第一台百亿亿次计算机器。 Horizon Europe 投入 70 亿欧元(76 亿美元)用于 HPC 和 AI 研发。卢森堡的联合资助促进了行业与学术界的数字主权共同设计。区域电价波动加速了直接液体冷却和可再生能源匹配的采用,以控制运营成本。南美洲、中东和非洲刚刚起步,但投资于地震建模、气候预测和基因组学,为模块化集装箱集群创造了绿地机会。
竞争格局
现有芯片供应商保持规模优势,但随着超大规模企业和专业云构建专有堆栈,竞争压力加剧。 NVIDIA、AMD 和 Intel 仍然主导着加速器收入,但它们的总份额被内部 AWS Trainium 和 Google TPU 的推出慢慢稀释。云提供商追求垂直整合,以确保供应并提高每个培训代币的成本,从而削弱传统 OEM 的议价能力。因此,高性能计算市场看到的是生态系统竞争,而不是组件竞争。
战略投资说明了这一重点。 NVIDIA、英特尔和 AMD 联合资助 Ayar Labs 将光学 I/O 商业化,从而解锁小芯片级带宽上限。得益于 1.6 亿美元的私募和 NVIDIA 3% 的股权激励,Applied Digital 的收入在 2024 年第四季度几乎翻了一番,达到 4370 万美元股权,使其 GPU 托管重点合法化。 CoreWeave 即将进行 IPO,在价值数十亿美元的 OpenAI 合同的支持下,明确了市场对由前高频交易工程师组成的利基人工智能超大规模企业的兴趣。
可持续性随着差异化和合规性的必要性而出现。 HPE 的直接液冷 Cray EX 在无风扇模式下支持 224 个 Blackwell GPU,可大幅降低设施 PUE 并解决用水问题。戴尔将后门热交换器作为标准配置,无需冷冻水回路即可实现 80 kW 机架。当监管机构审查隐含碳时,供应商将生命周期排放数据整合到 RFP 响应中。未来五年,竞争优势将源自供应链弹性、集成软件堆栈和资源效率证明,而不是原始基准领先地位。
最新行业发展
- 2025 年 3 月:CoreWeave 在 2024 年收入达到 19 亿美元后申请 IPO,并与 OpenAI 签署了为期五年、价值 119 亿美元的基础设施协议。
- 2024 年 12 月:印度电子和 IT 部确认在国家超级计算任务下部署 9 个 PARAM Rudra 系统,以建设国内能力。
- 2024 年 11 月:HPE 推出无风扇液冷 Cray EX 系统,支持多达224 个 NVIDIA Blackwell GPU,用于解决高能效高密度计算问题。
- 2024 年 11 月:美国能源部为 HPC4EI 拨款 700 万美元,资助八个州的 10 个工业效率项目。
FAQs
到 2030 年,高性能计算市场的预计价值是多少?
到 2030 年,该市场预计将达到 833.1 亿美元,以复合年增长率为 7.23%。
高性能计算市场中哪个组件细分市场增长最快?
托管服务和 HPC 即服务产品的复合年增长率为 14.7%,超过了硬件和软件。
GPU 为什么在高性能计算行业中势头强劲?
人工智能训练一个大规模推理任务依赖于大规模并行性,到 2030 年,GPU 的复合年增长率将达到 10.5%。
预计哪个区域增长最快,是什么推动了这种增长?
在中国和印度的主权百万兆级项目以及制药外包需求的推动下,亚太地区以 9.3% 的复合年增长率领先。
用水限制如何影响新的用水限制HPC 数据中心?
亚利桑那州和弗吉尼亚州等州强制要求采用水中性冷却,这会增加 15-20% 的建设成本,但会刺激液体和浸入式技术的采用。
混合部署模型在未来 HPC 战略中扮演什么角色?
混合框架让组织可以将敏感工作负载保留在本地,同时根据峰值需求爆发到云端,从而在不影响安全性的情况下提供成本灵活性。





