高带宽内存市场规模和份额
高带宽内存市场分析
2025年高带宽内存市场规模为31.7亿美元,预计到2030年将攀升至101.6亿美元,复合年增长率为26.24%。对 AI 优化服务器的持续需求、更广泛的 DDR5 采用以及积极的超大规模支出将继续加速 2025 年整个半导体价值链的产能扩张。过去一年,供应商专注于 TSV 产量的提高,而封装合作伙伴则投资了新的 CoWoS 生产线,以缓解基板短缺问题。汽车制造商加深了与内存供应商的合作,以确保 3 级和 4 级自主平台符合 ISO 26262 要求的 HBM。在韩国制造商投入数十亿美元用于下一代 HBM4E 升级后,亚太地区的制造生态系统保持了生产领先地位。
主要报告要点
- 按应用划分,服务器以到 2024 年,HBM3 的收入份额将达到 68.5%,而汽车和交通运输预计到 2030 年复合年增长率将达到 35.6%。
- 从技术角度来看,HBM3 占据了 2024 年收入的 46.3%;到 2030 年,HBM3E 将以 42.3% 的复合年增长率前进。按每个堆栈的内存容量计算,到 2024 年,16 GB 占据高带宽内存市场规模的 38.9%; 32 GB 及以上容量预计复合年增长率为 37.8%。
- 从处理器接口来看,GPU 到 2024 年将占据 64.4% 的市场份额,而 AI 加速器/ASIC 的预计复合年增长率为 33.2%。
- 按地理位置划分,亚太地区在 2024 年占据 41.2% 的收入份额,预计到 2030 年将以 29.4% 的复合年增长率增长。
全球高带宽内存市场趋势和见解
驱动因素影响分析
| AI 服务器扩散和 GPU 附加率 | +8.5% | 全球,集中在北美和亚太地区 | 中期(2-4年) |
| 数据中心转向DDR5和2.5-D封装 | +6.2% | 全球,以超大规模区域为主导 | 中期(2-4年) |
| 汽车 ADAS 中的边缘人工智能推理 | +4.8% | 欧洲、北美和中国是汽车中心 | 长期(≥ 4 年) |
| 超大规模企业对硅中介层堆栈的偏好 | +3.7% | 北美、亚太数据中心地区 | 短期(≤2年) |
| 本地化内存生产补贴 | +2.1% | 美国、韩国、日本 | 长期(≥ 4 年) |
| 光子学就绪 HBM 路线图 | +1.1% | 全球、研究中心早期采用 | 长期(≥ 4 年) |
| 来源: | |||
AI 服务器激增和 GPU 附加率
2024 年,大规模语言模型的快速增长推动每个 GPU 的 HBM 需求与传统 HPC 设备相比增加了七倍。NVIDIA 的 H100 结合了 80 GB HBM3,提供 3.35 TB/s,而 H200 于 2025 年初进行了采样, 141 GB HBM3E,速率为 4.8 TB/s。[1]NVIDIA,“AI 性能的 GPU 内存要素”,nvidia.com 到 2026 年,大部分供应商产能都锁定了订单积压,迫使数据中心运营商预先购买库存和共同投资包装生产线。
数据中心转向 DDR5 和 2.5-D 封装
超大规模企业将工作负载从 DDR4 转移到 DDR5,每瓦性能提高 50%,同时采用 2.5-D 集成,将 AI 加速器链接到硅中介层上的堆叠内存。由于基板短缺导致 GPU 的推出推迟到 2024 年,对单一封装平台的依赖加剧了供应链风险。
汽车 ADAS 中的边缘 AI 推理
达到 4 级功能的自动驾驶汽车处理速度超过 1 TB/s 的传感器流,将汽车层推向符合 ISO 26262 标准的 HBM4 样本。内存供应商推出了面向安全的设计,其中包括内置 ECC 和增强型热监控,以满足功能安全要求。
超大规模厂商对硅中介层堆栈的偏好
来自 AWS、Google 和 Microsoft 的定制 AI 芯片通过台积电的 CoWoS 集成了多个 HBM 堆栈,实现了互连密度超过 10,000 个连接/mm²。供应商通过资助专用中介层生产线和共同开发缩小中介层占地面积的小芯片架构来应对产能短缺。
限制影响分析
| 12层堆叠以上的TSV良率损失 | -4.2% | 全球,集中在先进晶圆厂 | 中期限(2-4 年) |
| CoWoS/SoIC 高级封装能力有限 | -3.8% | 亚太地区,影响全球供应 | 短期(≤ 2 年) |
| >1 TB/s 带宽设备中的热节流 | -2.1% | 全球,特别是在数据中心 | 中期(2-4 年) |
| 对人工智能加速器的地缘政治出口管制 | -1.9% | 中国,对全球产生溢出效应 | 长期(≥ 4年) |
| 来源: | |||
TSV Y12 层堆栈以上的良率损失
16 层 HBM 堆栈的良率降至 70% 以下,因为热循环导致 TSV 内的铜迁移故障。制造商追求热硅通孔设计和新型介电材料以稳定可靠性,但商业化还需要两年时间。
CoWoS/SoIC 先进封装产能有限
CoWoS 生产线到 2024 年平均利用率为 95%;基板制造商难以供应足够数量的 T-Glass,迫使其分配给顶级客户,并推迟了新兴的人工智能加速器项目。来自三星的替代 SoIC 流量和来自英特尔的 EMIB 流量已进入早期增长阶段,但无法抵消近期的短缺。
细分市场分析
按应用划分:服务器推动基础设施转型
服务器类别在 2024 年以 68.5% 的收入份额引领高带宽内存市场,反映了超大规模内存市场的增长。运营商转向 AI 服务器,每个服务器集成 8 到 12 个 HBM 堆栈。在云提供商推出依赖于每 GPU 带宽超过 3 TB/s 的基础模型服务后,需求加速增长。 2025 年的能效目标有利于堆叠式 DRAM,因为它比离散解决方案提供了卓越的每瓦性能,使数据中心运营商能够保持在功率范围内。随着公司用支持 HBM 的加速器取代基于 DDR4 的节点,企业更新周期开始,将采购承诺延长至 2027 年。
汽车和运输领域虽然目前规模较小,但增长最快,预计到 2030 年复合年增长率为 35.6%。芯片制造商与一级供应商合作,嵌入满足 ASIL D 要求的功能安全特性。欧洲和北美的 3 级生产计划将于 2024 年末有限推出,每辆车都使用之前为数据中心推理集群保留的内存带宽。作为无线更新随着战略成熟,汽车制造商开始将汽车视为边缘服务器,进一步维持 HBM 附加率。
按技术分类:HBM3 领导地位面临 HBM3E 颠覆
在 AI 训练 GPU 广泛采用后,HBM3 占 2024 年收入的 46.3%。 HBM3E 的采样于 2024 年第一季度开始,第一波生产以高于 9.2 Gb/s 的引脚速度运行。每个堆栈的性能提升达到 1.2 TB/s,减少了目标带宽所需的堆栈数量并降低了封装热密度。
HBM3E 42.3% 的预测复合年增长率是由美光 36 GB、12 高产品支撑的,该产品于 2025 年中期进入量产,目标是模型大小高达 5200 亿个参数的加速器。展望未来,2025 年 4 月发布的 HBM4 标准将每个堆栈的通道增加一倍,并将总吞吐量提高到 2 TB/s,为多 petaflop AI 处理器奠定了基础。[2]JEDEC 固态技术协会,“JESD270-4 HBM4 标准,” jedec.org
按内存容量:16 GB 主流产量到 32 GB 扩展
2024 年,16 GB 层占高带宽内存市场份额的 38.9%,平衡了产量和容量主流LLM培训节点。供应商依靠成熟的 8 层堆栈配置,以高产量交付,支持激进的成本目标。
对更大型号的需求刺激了向 32 GB 和 36 GB 产品的迅速转向,推动到 2030 年 32 GB 以上设备的复合年增长率预期为 37.8%。美光的 36 GB、12 高 HBM3E 在不超过 12 层 TSV 风险阈值的情况下扩大了容量。即将推出的 24 高 HBM4E 路线图的目标是每堆栈 64 GB,尽管供应商继续改进嵌入式冷却以抵消热密度。
按处理器接口:AI 加速器挑战 GPU 主导地位
GPU 消耗了 2024 年出货量的 64.4%NVIDIA 的 H100 和 H200 系列在 AI 训练集群中占据主导地位。峰值利用率迫使云运营商将未来的晶圆产量保留到 2026 年。
随着超大规模企业转向针对专有工作负载优化的内部设计芯片,定制 AI 加速器预计到 2030 年复合年增长率将达到 33.2%。这些 ASIC 通常直接在封装上集成高带宽内存,从而消除片外延迟。基于 FPGA 的卡在网络功能虚拟化和低延迟交易中保持了利基地位,利用 HBM 来维持吞吐量而不牺牲可重新配置性。
地理分析
亚太地区占 2024 年收入的 41.2%,其中以韩国为中心,其中 SK 海力士和三星控制着超过 80% 的份额生产线。 2024 年宣布的政府激励措施支持计划于 2027 年开业的扩大制造集群。台湾台积电保持了一个包对领先的 CoWoS 的垄断日益严重,将内存可用性与当地基板供应联系起来,并造成区域集中风险。
随着美光获得 CHIPS 法案 61 亿美元的资金,在纽约和爱达荷州建设先进 DRAM 晶圆厂,预计将于 2026 年初进行 HBM 试点运行,北美的份额有所增长。[3]美光科技,“《芯片法案》拨款促进扩张,” micron.com 超大规模资本支出继续推动当地需求,尽管大多数晶圆在美国进行最终模块组装之前仍在亚洲加工。
欧洲通过汽车需求进入市场;德国原始设备制造商 (OEM) 将于 2024 年底获得 HBM 3 级驾驶员辅助系统发货资格。欧盟的半导体战略仍然以研发为中心,支持光子互连和神经形态研究,以解锁未来高带宽内存市场的扩张。米德东非和非洲仍处于早期采用阶段,但 2025 年启动的主权人工智能数据中心项目表明该地区需求即将上升。
竞争格局
高带宽内存市场呈现寡头垄断特征,因为 SK 海力士、三星和美光合计供应超过占全球产量的95%。 SK 海力士凭借早期 TSV 投资以及与 NVIDIA 签订的 HBM3E 独家合同而保持领先地位。三星在解决 2024 年良率问题并于 2025 年中期在平泽推出双站点 HBM4 生产线后缩小了差距。美光通过将其 36 GB HBM3E 与 AMD MI350 GPU 搭配使用,加速了份额增长,为开放 AI 硬件生态系统提供了有吸引力的替代方案。
竞争从核心单元技术转向先进封装联盟。 SK 海力士和台积电宣布推出将 N3 逻辑与 HBM4 结合在一起的联合生产模型在单一采购周期下进行堆叠,到 2028 年锁定客户。[4]SK Hynix,“SK Hynix 与 TSMC 合作,加强 HBM 领导地位”,skhynix.com 供应商还瞄准了差异化利基市场,例如符合汽车标准的 HBM 变体包含扩展的温度范围和实时诊断。中国企业继续发展国内HBM2E和HBM3能力;然而,出口管制限制了设备访问,使他们的产品落后一到两代。
专用内存的推动催生了一种面向服务的参与模式,供应商根据个人工作负载调整速度仓、通道数和 ECC 方案。这种定制策略产生了有利于现有供应商的转换成本,并在 2030 年之前加强了市场集中度。
最新行业发展
- 2025 年 1 月:美光将其 HBM3E 36 GB 内存集成到 AMD 的 Instinct MI350 GPU 中,提供高达 8 TB/s 的带宽。
- 2024 年 12 月:JEDEC 发布了 JESD270-4 HBM4 标准,实现了 2 TB/s 的吞吐量和 64 GB 配置。
- 2025 年 11 月:SK 海力士和台积电扩大 HBM4 联合开发,以加快 3 纳米 AI 加速器的批量供货。
- 2025 年 7 月:SK 海力士确认在龙仁建设一座耗资 68 亿美元的内存工厂,用于 HBM 生产。
FAQs
高带宽内存市场目前规模有多大?
2025年高带宽内存市场估值为31.7亿美元,预计将达到10.16美元到 2030 年将达到 10 亿美元。
哪个应用程序细分市场的支出领先?
随着超大规模企业采用,服务器贡献了 2024 年收入的 68.5%以 AI 为中心的架构。
HBM3E 为什么会获得份额?
HBM3E 每堆栈提供高达 1.2 TB/s 的速度并降低功耗绘制,使其成为首选适用于下一代 GPU 和 AI 加速器。
汽车制造商如何使用 HBM?
汽车 OEM 正在过渡到 ISO 26262认证的HBM4,满足3级和4级自动驾驶的内存带宽需求。
哪个地区生产的高带宽内存最高?
亚太地区以超过 41% 的收入份额处于领先地位,并拥有大部分制造和先进封装产能。





