Infiniband 市场规模和份额
Infiniband市场分析
2025年Infiniband市场规模预计为257.4亿美元,预计到2030年将达到1269.9亿美元,预测期内(2025-2030年)复合年增长率为37.60%。
需求正在加速增长,因为超大规模人工智能训练集群、国家百万兆级计划和延迟关键型金融应用程序都依赖于以太网难以匹敌的确定性、无损结构。连续带宽从当今的 200 Gb/s HDR 链路跃升至 800 Gb/s XDR,而 1.6 Tb/s NDR 200 路线图使 InfiniBand 市场与大型语言模型复杂性紧密结合,大约每 18 个月就会使 GPU 到 GPU 的流量翻倍。云平台正在对 Quantum-2 和 Quantum-X800 交换机进行标准化,作为 GPU 超级 Pod 的“参考骨干网”,使企业能够立即访问超级计算机级网络。光收发器和d供应链紧张直连铜缆 (DAC) 布线带来了短期成本压力,但随着供应商将共封装光学器件投入批量生产,硅光子集成预计将在 2026 年之后缓解这些瓶颈。
主要报告要点
- 按组件划分,开关在 2024 年将占据 46% 的收入份额;软件和管理工具的复合年增长率预计到 2030 年将以 37.66% 的复合年增长率增长。
- 按数据速率计算,到 2024 年,HDR 200 G 将占据 InfiniBand 市场规模的 38% 份额,而到 2030 年,XDR 800 G 的复合年增长率将达到 42.22%。
- 按应用来看,高性能计算将占 InfiniBand 市场规模的 52% 份额到2024年,市场规模将扩大,AI/ML训练将以40.96%的复合年增长率扩大。
- 从部署模式来看,2024年本地集群占据InfiniBand市场份额的61%;云/托管 HPC 预计复合年增长率最高,为 38.90%。
- 按最终用户行业计算,到 2024 年,政府和国防将占据 26% 的收入份额,而云服务提供商预计将占据 26% 的收入份额。复合年增长率为 38.95%。
- 按地理位置划分,北美将在 2024 年占据 InfiniBand 市场份额的 39%,而亚太地区的复合年增长率最快,到 2030 年将达到 37.71%。
全球 Infiniband 市场趋势和见解
驱动因素影响分析
| AI/LLM 集群部署呈爆炸式增长 | +12.50% | 全球(北美、亚太地区领先) | 短期(≤ 2 年) |
| 国家百亿亿次高性能计算计划 | +8.20% | 北美、欧洲、亚太地区 | 中期(2-4 年) |
| 云 GPU 超级 Pod 在 InfiniBand 上实现标准化 | +7.80% | 全球超大规模企业 | 短期(≤ 2 年) |
| 低延迟财务分析需求 | +4.10% | 全球主要金融中心 | 中期(2-4 年) |
| 来源: | |||
AI/LLM 集群部署呈爆炸式增长
单个训练集群现在互连数万个 GPU,每个 GPU 发行数十亿美元每秒 ns 的 RDMA 消息。 NVIDIA 透露,其网络收入每年已达到 100 亿美元,几乎全部与为商业 AI 云提供支持的 InfiniBand 结构相关。 xAI 配备 100,000 个 H100 GPU 的 Colossus 系统和 Oracle 即将推出的 131,000 GB200 GPU zetta 规模超级集群都依赖 Quantum-2 交换机在三个网络层中维持 850 纳秒的最坏情况延迟。此类部署促进了主机通道适配器、收发器和电缆组件的后续购买,加强了飞轮,其中硬件升级触发了对结构感知工作负载调度程序的并行投资。
国家百亿亿次高性能计算计划的激增
美国能源部的 El Capitan 将通过 200 Gb/s InfiniBand 实现超过 2 exaflops,从而保障核库存管理。欧洲 2.5 亿欧元的 JUPITER 和德国 2.5 亿欧元的 Blue Lion 系统均选择了 Quantum-2 织物来满足严格的能效目标[1]欧盟委员会,“JUPITER Exascale System Procurement”,ec.europa.eu。日本经济产业省专门拨款 725 亿日元(4.7 亿美元)用于五台人工智能超级计算机,每台规定InfiniBand 连接可降低每浮点功耗。政府采购周期长达五到八年,为交换机制造商创造可预测的销量,并保护 InfiniBand 市场免受短期企业支出波动的影响。
在 InfiniBand 上实现云 GPU Super-Pod 标准化
Microsoft Azure 通过本机 400 Gb/s InfiniBand 公开 HBv5、HX 系列和 ND-H200-v5 VM,让客户启动数千个与 14,400 GPU Eagle 超级计算机共享相同低噪声结构的实例,Oracle、AWS 和 Google Cloud 已经宣布了类似的超级 Pod 模板,将 InfiniBand 编码为 GPU 云中的默认产品而不是高级产品。ft 扩大了 InfiniBand 市场,因为每个新区域的扩建都会复制全栈交换机、适配器、电缆、光学器件和软件,而不是依赖增量升级。
对低延迟金融分析的需求不断增长
高频交易场所以微秒为单位衡量竞争优势。部署 InfiniBand 的公司报告端口到端口延迟低于 90 纳秒,与基于 RoCE 的设置相比,交易执行时间缩短了 5-10 微秒。印度国家证券交易所每天通过专为 5 个 9 正常运行时间设计的确定性结构进行 197.1 亿笔交易。信用违约掉期和欺诈检测推理管道的可预测行为进一步巩固了 InfiniBand 在银行数据中心的地位。
限制影响分析
| 高资本支出和实施复杂性 | -5.80% | 全球(中小企业最受影响) | 短期(≤ 2 年) | ||
| 800 G/1.6 T 超以太网快速增长 | -4.20% | 早期超大规模试点 | 中期(2-4年) | ||
| 来源: | |||||
高资本支出和实施复杂性
完成InfiniBand 的推出需要专门的主机适配器、专用交换机、低偏斜双轴电缆或有源光缆以及将这些功能结合在一起的结构管理套件其成本比功能相当的以太网堆栈高 30-50%。没有经验丰富的 HPC 工程师的组织在拓扑设计、自适应路由和拥塞控制调整方面面临着陡峭的学习曲线。大型部署的专业服务费用通常相当于第一年硬件支出的 12-15%,这降低了对 AI 工作负载可能波动的中型企业的吸引力。
超以太网性能快速提升
Broadcom 的 Tomahawk 6 芯片具有 102.4 Tb/s 的总带宽,可在超以太网联盟 RDMA 配置下驱动超过 100,000 个 XPU。 Arista 的 Etherlink AI 系列将这些芯片编织成折叠闭环网络,接近 InfiniBand 的线头阻塞弹性,同时提供熟悉的以太网工具[2]Arista Networks,“Etherlink AI 平台数据表”,arista.com。运营商和超大规模运营商评估整体运营支出为了从单堆栈运营中节省资金,InfiniBand 供应商必须加快光学路线图和定价规则,以保持钱包份额。
细分分析
按组件:交换机锚点、软件加速
交换机产生了 2024 年收入的 46%,强调了它们作为每个领域的架构基石的作用。 InfiniBand 市场部署。随着Quantum-2的采用,交换硬件的InfiniBand市场规模达到118亿美元;随着 800 Gb/s XDR 和 1.6 Tb/s NDR 200 产品的增加,其复合年增长率将达到 34.1%。 NVIDIA 的 Quantum-X800 为每个 ASIC 添加了 64×800 Gb/s 端口,减少了基数、电缆线路和每太比特的功耗。硅光子学的并行发展有望在 2027 年实现 2 倍的光学密度,从而缓解机架级热上限。相比之下,随着企业自动化准入控制、服务质量层和拥塞,到 2030 年,软件和结构管理工具每年将增长 37.66%跨多租户 AI 结构的离子感知调度。时间同步精度低于 100 纳秒的集成遥测技术正迅速成为金融和政府工作负载中合规性的先决条件。
长尾组件托管通道适配器、收发器和专用布线,总共占据了 32% 的收入。 2024 年铜价将上涨至每磅 5.02 美元,预计到 2025 年将上涨 75%,这已经提高了 DAC 的定价,促使客户在以前由铜提供服务的机架距离上采用单模光链路。将光学器件、电缆和适配器与交换机刷新周期捆绑在一起的供应商处于有利位置,可以通过全栈升级货币化,限制灰色市场组件替代并增强生态系统粘性。
按数据速率:今天的 HDR,明天的 XDR
作为生产 AI 和 HPC 集群的主力速度,HDR 200 G 链路占据 38% 的收入份额。他们在港口成本、电缆覆盖范围、d 线卡电源,特别是在第二层和第三层交换机层。然而,随着下一代 GPU 和数据处理单元使现有结构饱和,XDR 800 G 通道预计到 2027 年将超过 HDR,复合年增长率为 42.22%。到 2030 年,与 XDR 相关的 InfiniBand 市场规模将达到 400 亿美元,这反映出 GPU 内存带宽加倍和全缩减周期时间减半的双重要求。
NDR 400 G 技术将当今的部署与未来的 XDR 连接起来,为运营商提供重复使用现有 QSFP112 光学器件的增量升级。研究原型已经展示了共同封装的光学器件,以低于 7 pJ/bit 的功耗驱动每个收发器 1.6 Tb/s,为近十年超级计算机中的 NDR 200 铺平了道路。传统的 SDR/DDR 和 QDR/FDR 安装在利基科学工作流程中仍然很活跃,这些工作流程优先考虑代码稳定性和实时确定性而不是原始吞吐量,但它们的收入贡献已降至 6% 以下,并将继续收缩。
按应用化:HPC 根源,人工智能增长引擎
高性能计算在 2024 年保留了 52% 的收入,这证明天气建模、能源勘探和计算化学仍然是许多国家计算预算的支柱。 InfiniBand 市场份额相当于 134 亿美元,单机架“交钥匙”系统为中型研究实验室提供千万亿级性能。然而,随着联邦学习、多模式生成人工智能和强化学习管道的激增,人工智能/机器学习培训的复合年增长率将达到 40.96%,到 2030 年将其份额提高到 48%。
企业越来越多地在由容器原生调度程序管理的统一 InfiniBand 结构上运行结合 CFD、分子动力学和变压器训练的混合工作负载。 BMW 使用基于 Omniverse 的“虚拟工厂”,其中逼真的模拟在 GPU 集群之间通过 200 Gb/s HDR 链接进行流式传输。金融机构将该模型扩展到在同一结构内执行的欺诈评分推理批次,证明了确定性传输有利于不同的算法领域。
按部署模型:本地控制与云灵活性
本地环境占据了 2024 年收入的 61%,因为政府机构、国防承包商和制药公司需要数据主权。然而,随着超大规模厂商在全球用户群中分摊价值数十亿美元的 GPU 订单,云/托管领域的复合年增长率将达到 38.90%。到 2030 年,在“人工智能即服务”产品的推动下,专用于云部署的 InfiniBand 市场规模将超过 600 亿美元。在“人工智能即服务”产品的推动下,客户可以租用 4,096 个 GPU 超级 Pod 的切片进行 24 小时的训练冲刺。
混合方法越来越受欢迎:组织在内部集群中运行敏感工作负载,但在并发高峰时突然转移到云端。 Azure Managed Lustre 和支持 Oracle RDMA 的块存储等解决方案将本地和托管结构缝合到统一的命名空间中,尽管安全架构师仍在努力解决关键问题-跨租赁边界的管理细分。
按最终用户行业:政府领导、云高速增长
政府和国防占 2024 年收入的 26%,相当于 67 亿美元,主要由海军、空军和核管理采购组成。美国海军的 Nautilus 系统在价值 3500 万美元的合同下在 200 Gb/s HDR 链路上实现了 8.2 PF/s。云服务提供商的基础规模较小,将以 38.95% 的复合年增长率超越其他细分市场,到 2030 年将达到 450 亿美元。它们的规模推动了对光学、电缆和遥测 ASIC 的上游需求,压缩了供应商学习曲线并加快了新速度等级的量产时间。
生命科学公司利用 InfiniBand 进行从头药物发现,其中分布式分子动力学内核以每 GB 的速度交换数据。时间步长。汽车原始设备制造商青睐数字孪生碰撞模拟和电池热分析的确定性传输。媒体工作室采用 XDR 织物来供电实时路径追踪渲染,缩短大片视觉效果的制作周期。
地理分析
2024 年,北美地区保留了全球收入的 39%。微软、Meta 和美国能源部的大规模投资培育了支撑商业人工智能云和国家安全的多拍比特网络超级计算机。华尔街交易公司将低延迟 InfiniBand 段分层部署到现有的城域光纤环上,以简化交易所之间的纳秒级套利。 CHIPS 法案税收抵免和贷款担保等联邦激励措施支持国内光互连工厂,部分地使 InfiniBand 市场免受地缘政治敏感元件短缺的影响。
到 2030 年,亚太地区的复合年增长率将达到最快的 37.71%。日本经济产业省的补贴、中国的“东数据西计算”计划以及韩国的节能大型数据中心推动了该地区的发展支出曲线。 NEC 和富士通等本地 OEM 将 InfiniBand 集成到交钥匙人工智能工厂中,以解决语言本地化模型、自动驾驶堆栈和半导体工艺研发的问题。区域供应链弹性工作还刺激了收发器和有源铜缆的国内组装,收紧了生态系统反馈循环。
在 EuroHPC 联合计划的推动下,欧洲实现了 30% 左右的健康增长,该计划承诺到 2027 年斥资 4 亿欧元用于新型人工智能超级计算机。欧洲大陆的绿色协议实施了严格的电力使用效率 (PUE) 要求,Quantum-2 交换机实现了同类最佳 32每 400 Gb/s 端口 W,是多个国家招标的决定性因素。第二波支出来自德国和法国的汽车原始设备制造商,将 InfiniBand 结构应用于固态电池生产线的实时数字孪生测试台。中东、南美等新兴地区出现零星但具有战略意义的下降与主权人工智能计划和油气藏建模相关的产品。
竞争格局
InfiniBand 市场高度集中在 NVIDIA 平台周围,该平台的网络部门(以前称为 Mellanox)控制着大约 82% 的港口出货量。 Quantum-2 和即将推出的 Quantum-X800 系列集成了自适应路由、高级拥塞控制和硬件加速集合,使发布节奏与每一代新 GPU 保持一致。 CUDA、NCCL 和交换机内 SHARP 引擎之间的紧密耦合使 NVIDIA 能够提供竞争对手难以复制的端到端延迟。同时,该公司的 DOCA SDK 抽象了 RDMA 语义,使开发人员无需具备低级动词专业知识即可利用加速器。
Cornelis Networks 通过 Omni-Path CN5000 挑战了这一主导地位,声称与同类 HDR 设备相比,切换到切换延迟降低了 35%UPS。其路线图的目标是到 2026 年达到 800 Gb/s 的速度等级,但生态系统惯性和有限的固件兼容性阻碍了近期的采用。 Broadcom、Marvell 和 Arista 引领并行超以太网推动,游说超大规模企业对以太网的海量经济进行标准化。他们的成功取决于在现实世界的全归约、嵌入完成和强化学习工作负载中展示出同等的性能,所有这些目前都支持 InfiniBand 的无损结构。
超大规模层以下存在空白机会,企业需要确定性网络,但缺乏管理子网管理器、分区键和自适应路由策略的人员。托管服务提供商将 InfiniBand 捆绑为统包订阅硬件、固件、监控和 24 × 7 SLA,创造年金收入,部分抵消硬件利润压缩。提供云原生 NOS 功能、Grafana 就绪遥测和自动电缆错误的供应商补救措施将占据这一新兴中端市场的巨大份额。
最新行业发展
- 2025 年 6 月:Cornelis Networks 推出 CN5000 400 Gb/s Omni-Path 系列,宣布 2026 年提供 800 Gb/s 样本,并定位于 1.6到 2027 年将达到 Tb/s。
- 2025 年 5 月:NVIDIA 与生态系统合作伙伴 MediaTek、Marvell 和 Alchip 共同推出 NVLink Fusion,每个 GPU 的传输速度可达 1.8 TB/s,并在第三方 CPU 和 NVIDIA GPU 之间进行更深入的集成。
- 2025 年 5 月:Oracle 承诺向 NVIDIA GB200 超级芯片投资 400 亿美元用于 OpenAI 基础设施,巩固 Quantum-2 InfiniBand作为其默认的 AI 结构。
- 2025 年 3 月:Stargate AI 数据中心开始安装 64,000 个 GB200 系统,通过 800 Gb/s InfiniBand 互连,以实现多亿次浮点运算 AI 服务。
FAQs
InfiniBand 市场目前的规模有多大?
InfiniBand 市场 2025 年收入为 257.4 亿美元,并有望达到 257.4 亿美元到 2030 年,这一数字将达到 1,269.9 亿,复合年增长率为 37.60%。
目前哪个地区引领 InfiniBand 市场?
在超大规模云支出和政府亿亿次计划的推动下,北美占 2024 年收入的 39%。
XDR 800 Gb/s InfiniBand 链路预计增长速度有多快?
XDR 800 Gb/s 收入预计为o 以 42.22% 的复合年增长率扩展,使其成为增长最快的数据速率细分市场。
为什么 AI 训练集群更喜欢 InfiniBand 而不是以太网?
InfiniBand 保证无损、亚微秒延迟和交换机内集体加速,这对于变压器模型中的大规模梯度同步至关重要。
以太网是否会成为 InfiniBand 的可行替代方案?
Broadcom 和 Arista 主导的超以太网计划正在缩小延迟差距,但大多数超大规模企业仍将 InfiniBand 标准化,用于 4,000 个 GPU 以上的训练工作负载。
什么因素最制约 InfiniBand 的广泛采用?
与以太网相比,高资本支出和对专业部署专业知识的需求增加了 30-50% 的成本,使许多中小型企业望而却步。





