HBM创新速度远超标准制定 #
随着人工智能(AI)带动的数据量呈指数级增长,对高带宽存储器(HBM)的需求也在快速攀升。HBM已成为AI加速器和GPU的关键,但它仍是一种高成本且复杂的技术。问题在于,GPU的创新速度远快于标准制定,这使得定制化方案在未来变得尤为关键。
根据Dell’Oro Group的数据,2025年第一季度全球服务器和存储组件市场同比增长62%,主要动力来自AI扩张。这一趋势带动了**HBM、GPU、加速器和网络接口卡(NiC)**的需求激增。
GPU性能推动HBM需求 #
AI服务器在短短几年内已经从占据服务器市场20%提升至接近60%。这一转变得益于GPU算力的持续提升,而HBM则是GPU发展的关键驱动力。
不过,HBM的供应十分紧张——厂商的产能通常提前一年以上被预订。目前,SK海力士以约64%的市场份额占据HBM市场领先地位,三星和美光紧随其后。
美光计划在2026年量产HBM4,其具备2048位接口,随后还将推出HBM4E。美光还提供定制化基底芯片设计选项,以更好适配特定算力需求。2025财年第三季度,美光的HBM收入环比增长近50%,年化营收已突破60亿美元。
虽然GDDR、低延迟DRAM、闪存SSD等方案在部分高性能计算场景中可替代HBM,但它们缺乏HBM与GPU深度集成带来的带宽优势。对于顶级AI性能,HBM不可替代。
供应与标准的瓶颈 #
HBM面临的主要挑战之一是GPU迭代速度与内存标准制定的脱节。GPU厂商几乎每年推出新架构,而JEDEC标准通常需要数年才能更新。
与DDR等内存技术4–5年更新一代不同,HBM的代际更新周期已经缩短到2–2.5年。这一节奏正在重塑行业格局,迫使厂商以更快速度创新。
HBM晶圆产能也在急剧提升,其增速已远超DDR5等传统DRAM。与此同时,测试环节的难度不断增加,需要应对更高带宽、更大容量以及更复杂的散热管理。
定制化方案重塑HBM #
另一大趋势是定制化HBM实现的兴起。超大规模云服务商和SoC厂商越来越多地要求专用功能,以便针对AI加速器和ASIC实现最佳性能。
这种趋势带来了多方面变化:
- 更多控制器与逻辑功能集成至HBM基底芯片
- 基底芯片制造转向台积电等晶圆代工厂,采用3nm或5nm工艺
- 2.5D和3D先进封装技术应用愈加广泛
这增加了测试复杂性,但也提升了灵活性,使架构能更好地适配AI工作负载。
模型规模增长推动更大容量 #
AI模型规模正以惊人速度扩张,从最初的几百万参数到如今的数十亿参数,未来甚至将出现单模型万亿参数的情况。
为了满足需求,下一代HBM架构(HBM4、HBM4E,以及未来的HBM5)正在聚焦:
- 更高的带宽
- 更大的存储密度以承载庞大参数
- 更低的能耗以提升数据中心效率
部分定制架构已展示出:
- 33%的内存容量提升
- 25%的计算面积增加
- 高达70%的接口功耗降低
这些优化对AI工作负载至关重要,尤其是在算力与能效矛盾日益突出的背景下。
结论 #
HBM的创新节奏已远超传统标准。尽管JEDEC规范依然重要,但行业正越来越多地由GPU厂商与超大规模云服务商主导。
未来HBM的发展将取决于其在以下方面的平衡能力:
- 前所未有的带宽
- 爆炸式增长的容量
- 面向AI任务的能效优化
随着AI的持续扩展,定制化HBM架构将成为常态,而创新仍将走在标准制定的前面。