ViWANT
6 4 月 2026, 周一

旧GPU市场为何供不应求

走进深圳华强北的二手显卡市场,你会看到一幅奇特的景象:RTX 3080、3090这些三四年前的老卡,价格居然比首发时还要坚挺。这种反常现象背后,是整个AI算力市场的供需失衡。

老骥伏枥的算力价值

2024年初,一张二手RTX 3090的价格稳定在8000元以上,比两年前矿难后的低谷期翻了近三倍。这些”过时”的GPU在AI推理任务中表现出的性价比,让许多初创公司趋之若鹜。相比一张H100动辄20多万的售价,组建8卡RTX 3090工作站的总成本不到新卡的1/3,却能满足大多数中小模型的训练需求。

供应链的蝴蝶效应

新一代GPU的产能瓶颈直接推高了旧款产品的需求。台积电的CoWoS先进封装产能要到2025年才能完全释放,这意味着H100、B200这些新卡的供应量在短期内无法满足爆炸式增长的AI需求。就像疫情期间的汽车芯片短缺导致二手车价格上涨一样,AI芯片的供应紧张让旧GPU重新获得了市场青睐。

开源社区的意外助推

Llama、ChatGLM等开源模型的流行,降低了AI应用的门槛。一个五人小团队用几块旧显卡就能跑起可用的语言模型,这种”平民化AI”的趋势让旧GPU的需求量激增。数据显示,2023年全球AI初创公司数量同比增长47%,这些公司大多选择性价比更高的旧款GPU作为算力起点。

租赁市场的连锁反应

云端GPU租赁价格的飙升进一步刺激了旧卡的二手需求。以国内某云服务商为例,A100实例的时租从2023年初的12元涨至目前的18元,涨幅达50%。许多用户发现,与其长期租赁,不如直接购买二手显卡搭建本地集群更划算。这种”买不如租,租不如买”的循环,让旧GPU市场持续升温。

在成都的一家AI初创公司里,CTO指着机房里整齐排列的20张RTX 4090说:”这些卡足够我们未来两年的模型迭代,成本只有使用云端算力的四分之一。”窗外,夕阳的余晖照在显卡散热器上,反射出金属特有的光泽。