
核心信息总结:内存成本主导超大规模数据中心支出,AI服务器价格受冲击,厂商分化加剧
1. 内存支出占比暴增趋势
半导体分析机构 SemiAnalysis 预测,内存(DRAM+HBM)在超大规模数据中心总资本支出中的占比将从 2023-2024年的8% 飙升至 2026年的30%以上,2027年进一步攀升,四年内增长近四倍。
2. 内存价格与供应压力
- DRAM:2026年价格翻倍以上,2027年平均售价实现两位数百分比增长;LPDDR5合约价自2025年Q1已涨超三倍,本季度现货价或突破 每GB 10美元(约68.9元人民币)。
- HBM:到2027年仍将供不应求,目前已占据超大规模数据中心 2500亿美元(约1.72万亿元人民币) 增量支出的巨大份额。
3. AI服务器成本传导
- AI服务器定价受内存成本驱动:B200机型年底前价格或上涨 20%,内存成本是主要推手。
- 行业现状:多家制造商承认零部件成本急剧上升,戴尔COO称成本变动速度“前所未有”。
4. 厂商竞争分化
- 英伟达:获“VVP(特优)”级DRAM定价,远低于市场平均价,压缩自身服务器成本并拉低行业定价基准,掩盖内存短缺对其他厂商的冲击。
- AMD:AI加速器SKU内存含量高且无供应商优惠定价,出货量低于英伟达,在规模劣势下更易受内存成本上涨冲击。
5. 第三方预测
- Counterpoint Research:2026年底DDR5 64GB RDIMM模组价格可能是2025年初的两倍,英伟达LPDDR平台AI服务器因内存容量大,价格涨幅尤为明显。
关键结论
内存成本已成为超大规模数据中心支出与AI产业的核心变量,厂商分化加剧(英伟达受益于规模与定价优势,AMD等中小厂商承压),这一趋势将持续影响AI服务器市场格局。
一站式数字化解决方案服务商 —— 专业提供软件开发、网站设计、APP 与小程序开发,搭载低费率支付通道,结合创意广告设计,助力企业全链路数字化升级。
- 使用本网站请联系客服
- 点击关注微信公众号:乐鱼网络
- 点击-在线客服