去年还在为内存降价欢呼的消费者,今年可能连装机预算都要重新规划了。一条32G DDR5内存从800元飙升至3800元,服务器内存更是夸张到单根突破4万元——这背后是AI数据中心正在以前所未有的速度吞噬全球内存产能。
AI服务器的内存胃口有多大?
传统数据中心服务器通常配备128-256GB内存,而一台训练大模型的AI服务器动辄需要2TB甚至更高的内存容量。这意味着单台AI服务器的内存需求就是普通服务器的8-10倍。更惊人的是,像OpenAI的”星际之门”项目每月需要采购90万片DRAM晶圆,这个数字接近全球DRAM总产能的40%。
内存厂商的战略转向
三星、SK海力士和美光这三家掌控全球90%以上DRAM产能的巨头,从2025年开始集体调整产能结构。他们大幅削减消费级存储产品线,将资源集中投向利润更高的AI存储领域。美光甚至直接停售了消费级品牌Crucial,这种果断的转向在存储行业历史上极为罕见。
| 产品类型 | 2024年产能占比 | 2025年产能占比 |
| 消费级DRAM | 45% | 28% |
| 服务器DRAM | 35% | 52% |
| AI专用DRAM | 20% | 70% |
产能转移的连锁反应
当全球70%的DRAM产能被预定给AI数据中心时,消费电子市场自然面临供应短缺。手机厂商不得不重新设计产品,降低内存配置;汽车制造商因为缺芯已经头疼,现在连智能座舱需要的内存也成了问题。甚至连已经被淘汰的DDR3内存都重新出现在市场上,成为企业无奈的过渡选择。
这种产能转移不是短期现象。据行业分析,AI数据中心对高带宽内存的需求将持续到2028年,期间任何产能扩张都难以满足指数级增长的计算需求。当NVIDIA每推出一代新GPU,其对内存带宽的要求就提升一个数量级,整个产业链都被迫跟上这个节奏。
技术演进带来的需求变革
HBM3E等高带宽内存成为新的争夺焦点。与传统DDR5相比,HBM在带宽和能效上都有显著优势,但生产工艺复杂,良率低,进一步加剧了供应紧张。三星平泽工厂的工程师透露,他们现在优先保证HBM产线的原材料供应,普通DDR5产线经常面临原材料调配的困难。
看着实验室里那些等待内存芯片的AI服务器,你突然明白了一个道理:在算力为王的时代,内存不再是配角,而是决定AI进化速度的关键瓶颈。
