内存墙瓶颈:AI计算引发记忆超级周期
在过去几十年里,半导体行业一直以摩尔定律为驱动力,持续提升晶体管密度,提升芯片性能,降低每单位计算成本。随着行业进入人工智能时代,缩放定律成为新的目标。通过扩大AI模型规模、训练数据量和计算资源,开发者旨在实现模型性能的可预测提升。因此,行业关注点已从单个芯片的计算能力转向整体系统级性能。
在此背景下,内存带宽和数据传输效率的限制变得更加明显,近年来HBM(高带宽存储器)的战略重要性大幅提升。随着AI工作负载逐渐从训练转向推理,CSP(云服务提供商)正在加速投资AI基础设施和服务器部署,进一步提升了对DDR5等服务器级DRAM的需求。
因此,三大DRAM制造商继续将先进工艺产能分配给高端服务器DRAM和HBM,限制了消费级DRAM的供应,推动了新的内存价格超级周期,并扩大了其对消费电子市场的影响。
目前基于Transformer架构的主流大型语言模型(LLM)深度学习在计算性能上高度依赖内存访问。在训练过程中,每个生成的代币都会反复访问大量数据集、权重和参数,以及推断过程中的KV缓存。当处理器计算能力的增长远远超过内存带宽和数据传输能力时,大量处理时间会花在等待内存数据上,而不是执行计算。当系统性能受限于数据传输速度时,就会出现典型的“内存墙”问题。
近年来,GPU等AI芯片的计算能力增长速度远超内存带宽和数据传输效率。根据《人工智能与内存墙》研究,AI模型两年内计算能力提升了3×,而内存带宽仅增加了1.6×连接带宽增加了约1.4×。因此,大多数计算受限于内存访问和通信效率,而非原始处理能力。
图1。峰值硬件FLOPS及内存/互连带宽的扩展

从理论建模的角度来看,这种结构性不平衡可以用屋顶线模型来解释。深度学习模型主要由矩阵乘法组成,总计算工作负载以浮点运算(FLOP)衡量。
屋顶线模型提供了一个计算理论上可实现性能的框架,表达公式如下:
$$ P = min left(pi, beta times I right) $$
图2。屋顶线模型:在计算增长下内存受限区域的扩展

模型表明系统性能受最大可实现性能(π)和最大内存带宽(β)的限制,膝点标志着达到最大可实现性能所需的最小作强度。
随着AI芯片计算持续增加(π上升),如果内存带宽斜率不相应增加(β保持不变),膝盖点将向上和向右移动,导致更多计算负载处于内存受限区域。换句话说,持续的计算增长加剧了内存对可实现性能的限制。这就是为什么在AI时代,AI巨头的关注点已从单纯增加FLOP转向了内存军备竞赛。
HBM成为加速AI计算的解决方案
随着大型语言模型(LLM)不断扩展,甚至超过万亿级参数,单芯片已无法处理完整的模型计算,而是演变成由多个人工智能加速器组成的集群。集群中包含的人工智能加速器越多,每秒传输的数据量在每个人工智能加速器内以及跨芯片之间传输的量就越大。
在这种架构中,数据传输的挑战在芯片间(扩展扩展)甚至跨数据中心层面(跨扩展扩展)之间延伸。这不仅造成严重的内存墙瓶颈,也使芯片间带宽变得越来越关键。除了InfiniBand和以太网的竞争外,HBM已成为AI加速器的最佳内存选择。
HBM通过通过硅口径(TSV)和先进封装技术垂直堆叠多颗DRAM芯片,并将其与GPU集成。与传统平面DRAM相比,HBM大幅缩短了数据传输路径,并具备1024位超宽接口,提供远超传统GDDR的内存带宽。
预计2026年量产的HBM4将达到2TB/s的总带宽,接口宽度翻倍至2048位,同时保持数据传输速率超过8.0 Gbps。这使得HBM4能够在不提高时钟频率的情况下将数据吞吐量翻倍,进一步提升AI芯片在高并行性和数据密集型工作负载下的表现。
AI巨头的规格军备竞赛引发了高产机需求激增
历代迭代,HBM在性能、输入输出数量和带宽方面不断进步,成为AI加速器规格升级的核心支柱。近年来,英伟达、AMD和谷歌稳步将AI芯片向新一代HBM迁移,HBM堆栈数量和每颗芯片的总内存容量明显增加,直接推动了HBM的需求。
根据TrendForce对2025年AI芯片出货量的估算,HBM需求预计同比增长超过130%。预计2026年,HBM的使用量将持续上升,同比增长仍超过70%,主要得益于下一代平台如B300、GB300、R100 R200和VR100 VR200的广泛采用,同时谷歌TPU和AWS Trainium加速向HBM3e的转型。
图3。英伟达、AMD和谷歌AI芯片的HBM采用趋势


AI推理兴起推动DDR5需求
随着人工智能计算逐渐从训练转向推理,它越来越多地应用于终端用户场景。预计到2029年,AI推断将成为驱动AI服务器的主要动力。
图4。AI服务器需求预测:训练与推理(2025F–2029F)

根据麦肯锡公司的一份报告,预计到2028年,AI推断将超过训练和非AI工作负载,成为数据中心最大的功耗来源。这一转变将推动硬件架构和能源配置的全面变革。
针对这一趋势,行业正在重新评估计算各个阶段的硬件配置策略。这对超大规模数据中心运营商在长期规划电力供应和网络架构方面具有重大影响。其目标是在有效降低总拥有成本(TCO)的同时,优化性能与成本的平衡。这反映了推理需求正在重塑整个系统数据中心基础设施。
DDR5配置升级及推断需求下的价格趋势
训练和推断之间存在记忆需求差异。在“训练”阶段,大数据集会被反复处理,这对内存带宽提出了极高的要求。带宽不足可能导致计算单元处于空闲状态,阻碍最佳性能。因此,配备HBM的AI加速器常被用来避免内存瓶颈。
相比之下,“推理”的内存需求取决于实际计算阶段,可分为两个阶段:
预填充:系统一次性处理完整的用户输入提示,将文本拆分为标记并执行大规模矩阵计算。这一阶段计算量较大,但对内存带宽的敏感度较低。可以使用经济高效的DDR或GDDR内存配置。
解码:模型反复访问权重参数和KV缓存,逐令牌生成响应令牌。此阶段计算需求下降,但内存需求显著上升。内存访问的延迟直接影响每次令牌生成的速度。具有高带宽、大容量内存的内存配置,如HBM或HBF,仍然是最优选择。
CSP正在扩展通用服务器部署,以满足日益增长的推理需求。DDR5已成为最佳内存选择,平衡了性能与成本。这一趋势导致北美CSP从2025年下半年开始计划在2026年购买服务器时部署更高的DDR5,进一步推高了DDR5的需求和价格。
根据TrendForce的分析,2025年第四季度,DDR5服务器和HBM3e的合同价格迅速趋同。HBM3e最初定价是服务器DDR5的四到五倍,但预计到2026年底,这一差距将缩小到1到2倍。
随着标准DRAM盈利能力逐步提升,一些供应商开始将容量转向DDR5,为HBM3e价格上涨创造更多空间。
表1。HBM 与 DDR5:技术与应用比较
| 项目 | HBM | DDR5 |
|---|---|---|
| 设计架构 | 通过TSV垂直堆叠DRAM并与GPU集成于一个封装中 | 平面单芯片DRAM,可通过标准DIMM模块扩展 |
| 总线宽度 | 极宽(每堆1024位) | 更窄(32位x2) |
| 带宽 | 极高(TB/s水平) | 高(GB/s级别) |
| 总内存容量 | 降低(容量因与GPU联合集成而固定) | 高(可通过DIMM插槽扩展) |
| 费用 | 非常高 | 相对较低 |
| 功耗 | 下层 | 高 |
| 主要应用场景 | 人工智能模型训练与推理(解码阶段)、高性能计算(HPC) | AI模型推理(预填充阶段)、通用服务器和个人电脑 |

记忆超级周期冲击,消费电子产品首当其冲
2025年第三季度,AI和通用服务器的内存需求扭转了市场趋势,导致供应短缺。三大DRAM制造商优先考虑HBM和高端服务器DRAM产能,但有限的晶圆厂产能意味着2026年供应难以显著扩展。与此同时,这压缩了通用服务器和消费级DRAM的供应,推高了整体DRAM价格,预示着新一轮内存超级周期的到来。
TrendForce 预计 2026 年第一季度内存价格将再次大幅上涨,且存储成本对智能手机、个人电脑及其他消费端点的物料清单影响正在迅速增长。消费电子制造商受影响最严重,直接影响出货量。智能手机和笔记本品牌必须降级规格并延迟升级以控制成本,而DRAM受影响最大,因为它占总成本的很大一部分。
总体来看,高端和中端DRAM容量预计将趋向最低市场标准,从而放缓升级步伐,而所有消费电子市场的低端细分市场预计将受损最为严重。
消费电子利润危机,出货普遍疲软
TrendForce于2025年11月首次下调了2026年智能手机、笔记本和游戏主机的全球生产预测。然而,随着内存价格持续上涨,12月底所有终端设备的估算再次修订,考虑供应链发展。
2026年智能手机产量增长最初预期为0.1%,随后下调为2%下降,2025年12月底进一步降至3.5%。2026年1月中旬,数据再次修正为同比下降7%。TrendForce进一步分析,即使是相对盈利的iPhone机型,2026年第一季度内存在总物料清单成本中的份额也将显著增加,迫使苹果重新考虑新设备定价,并可能减少或取消旧款机型的计划折扣。对于面向中低端市场的安卓品牌来说,内存是主要卖点之一,其在物料清单成本中的份额已经很高。随着价格飙升,低端智能手机将在2026年回归4GB内存,促使品牌调整价格或供应周期以减少损失。
笔记本电脑市场2026年的出货量已从此前预期的1.7%下调至-2.8%,并进一步调整为-5.4%。拥有高度整合供应链和更灵活定价的品牌,如苹果和联想,在应对不断上涨的内存价格时拥有更大的灵活性。然而,低端和消费级笔记本品牌难以转嫁成本,且受限于处理器和作系统需求,进一步降低规格变得困难。如果记忆价格上涨在第二季度没有缓解,TrendForce预测2026年全球笔记本电脑出货量可能同比下降10.1%。
2026年游戏主机出货预期已从此前预期的同比下降3.5%下调至4.4%。对于任天堂Switch 2、索尼PS5和Microsoft Xbox X等主流机型,内存成本占BOM的比例已升至23%–42%,而过去约为15%。因此,硬件毛利率被大幅压缩。2026年,三大制造商将难以保留促销空间或沿用以往以销量驱动的增长策略,这可能进一步抑制出货势头。如果内存市场状况不改善,全球游戏主机渗透率预计将进入暂时停滞期。
图5。智能手机和笔记本电脑DRAM容量规格趋势


“打破记忆墙”军备竞赛:2026年记忆超级周期与价格飙升展望
与2016–2018年由服务器整体需求驱动、持续约九个季度的内存超级周期不同,这一周期的关键驱动力是克服“内存壁垒”。随着AI芯片计算能力增长速度远超内存带宽,系统性能正日益受数据传输效率的限制,行业竞争从纯计算性能转向内存军备竞赛。
这一循环由人工智能和整体服务器需求共同推动。为解决内存瓶颈,供应产品组合变得极为复杂,涵盖HBM、DDR5、企业级SSD及其他高端内存产品,这也影响了标准内存的可用性。
由于产能仍有限,此次内存超级周期预计将延续至2026年。市场已转为卖方市场,制造商持续提高合同价格,管理产能扩张,并维持高价格水平。预计2026年DRAM价格将上涨超过70%,短缺和价格上涨趋势预计将持续。


评论