跳过正文

HBM创新速度远超标准制定

HBM 高带宽存储器 GPU AI加速器 半导体
目录

HBM创新速度远超标准制定
#

随着人工智能(AI)带动的数据量呈指数级增长,对高带宽存储器(HBM)的需求也在快速攀升。HBM已成为AI加速器和GPU的关键,但它仍是一种高成本且复杂的技术。问题在于,GPU的创新速度远快于标准制定,这使得定制化方案在未来变得尤为关键。

根据Dell’Oro Group的数据,2025年第一季度全球服务器和存储组件市场同比增长62%,主要动力来自AI扩张。这一趋势带动了**HBM、GPU、加速器和网络接口卡(NiC)**的需求激增。


GPU性能推动HBM需求
#

AI服务器在短短几年内已经从占据服务器市场20%提升至接近60%。这一转变得益于GPU算力的持续提升,而HBM则是GPU发展的关键驱动力。

不过,HBM的供应十分紧张——厂商的产能通常提前一年以上被预订。目前,SK海力士以约64%的市场份额占据HBM市场领先地位,三星和美光紧随其后。

美光计划在2026年量产HBM4,其具备2048位接口,随后还将推出HBM4E。美光还提供定制化基底芯片设计选项,以更好适配特定算力需求。2025财年第三季度,美光的HBM收入环比增长近50%,年化营收已突破60亿美元

虽然GDDR、低延迟DRAM、闪存SSD等方案在部分高性能计算场景中可替代HBM,但它们缺乏HBM与GPU深度集成带来的带宽优势。对于顶级AI性能,HBM不可替代


供应与标准的瓶颈
#

HBM面临的主要挑战之一是GPU迭代速度与内存标准制定的脱节。GPU厂商几乎每年推出新架构,而JEDEC标准通常需要数年才能更新。

与DDR等内存技术4–5年更新一代不同,HBM的代际更新周期已经缩短到2–2.5年。这一节奏正在重塑行业格局,迫使厂商以更快速度创新。

HBM晶圆产能也在急剧提升,其增速已远超DDR5等传统DRAM。与此同时,测试环节的难度不断增加,需要应对更高带宽、更大容量以及更复杂的散热管理


定制化方案重塑HBM
#

另一大趋势是定制化HBM实现的兴起。超大规模云服务商和SoC厂商越来越多地要求专用功能,以便针对AI加速器和ASIC实现最佳性能。

这种趋势带来了多方面变化:

  • 更多控制器与逻辑功能集成至HBM基底芯片
  • 基底芯片制造转向台积电等晶圆代工厂,采用3nm或5nm工艺
  • 2.5D和3D先进封装技术应用愈加广泛

这增加了测试复杂性,但也提升了灵活性,使架构能更好地适配AI工作负载。


模型规模增长推动更大容量
#

AI模型规模正以惊人速度扩张,从最初的几百万参数到如今的数十亿参数,未来甚至将出现单模型万亿参数的情况。

为了满足需求,下一代HBM架构(HBM4、HBM4E,以及未来的HBM5)正在聚焦:

  • 更高的带宽
  • 更大的存储密度以承载庞大参数
  • 更低的能耗以提升数据中心效率

部分定制架构已展示出:

  • 33%的内存容量提升
  • 25%的计算面积增加
  • 高达70%的接口功耗降低

这些优化对AI工作负载至关重要,尤其是在算力与能效矛盾日益突出的背景下。


结论
#

HBM的创新节奏已远超传统标准。尽管JEDEC规范依然重要,但行业正越来越多地由GPU厂商与超大规模云服务商主导。

未来HBM的发展将取决于其在以下方面的平衡能力:

  • 前所未有的带宽
  • 爆炸式增长的容量
  • 面向AI任务的能效优化

随着AI的持续扩展,定制化HBM架构将成为常态,而创新仍将走在标准制定的前面。

相关文章

AMD 发布专业级 GPU —— Radeon AI Pro R9700
AMD GPU Radeon AI Pro R9700
英特尔Arc B570显卡即将上市
Arc B570 GPU
GDDR 与 HBM 内存之间的区别
GDDR HBM H100