ViWANT
14 5 月 2026, 周四

高频宽内存HBM是什么为何AI离不开它

你也许听过HBM这个缩写,但真要问它到底是什么,为什么AI大模型离了它就转不动,很多人可能只停留在“高频宽”三个字上。说白了,HBM(High Bandwidth Memory)是一种通过垂直堆叠DRAM芯片、利用硅通孔(TSV)和微凸块互联的立体内存架构。它不像传统DDR内存那样平铺在PCB上,而是像盖楼一样把多个内存层叠起来,再通过一个基础逻辑层统一调度。这种设计让数据通道宽度一下子拓宽到1024位甚至更高,而传统DDR只有64位或128位——差距就像单车道和十车道高速公路。

为什么AI训练非它不可?

AI模型的训练本质上是海量矩阵运算,GPU需要不断从内存中读取权重和中间结果。以英伟达H100 GPU为例,它搭载了80GB的HBM3内存,带宽高达3.35TB/s。相比之下,即便是最快的DDR5内存,单条带宽也只有几十GB/s。训练一个GPT-4级别的模型,如果换成DDR内存,数据传输时间会从几天拉长到几个月,完全不可接受。HBM的高带宽让GPU的计算单元始终“吃饱”,不至于空转等待数据。

带宽只是表面,功耗才是隐性门槛

很多人忽略的是,HBM的功耗优势同样关键。传统DDR内存要达到类似带宽,需要成倍增加内存通道和功耗,而HBM通过更短的数据路径和更低的电压,每比特传输能耗只有DDR的一半左右。在动辄数千张GPU的数据中心里,功耗直接决定了电费和散热成本。HBM3e(扩展版)甚至能在保持带宽提升的同时,进一步压降功耗,这恰恰是AI军备竞赛中“算力密度”的核心支撑。

当前格局与未来走向

目前HBM市场由SK海力士、三星和美光三分天下,SK海力士凭借率先量产HBM3e占据了英伟达主力供应商位置。三星虽在产能和良率上追赶,但近期劳资风波可能拖累其供应稳定性。美光则通过HBM3e的快速迭代,试图在下一代HBM4中抢回份额。从技术路线看,HBM4预计将堆叠层数提升至16层以上,带宽突破2TB/s,并引入更先进的封装工艺。不过,HBM的制造难度极高——堆叠良率、散热、测试成本都是拦路虎,这决定了它短期内仍会是AI芯片的“卡脖子”环节。

说到底,HBM不是什么黑科技,但它恰好卡在了AI算力爆发的咽喉上。没有它,再强的GPU也只能是个空壳。