CPU借AI热潮重获青睐,再度 “变酷”
受 AI 热潮推动,如今热销的计算硬件不只有显卡和 NAND 闪存。AMD 与英特尔高管均指出,X64 CPU 需求大幅上涨—— 这一方面源于整体 AI 算力基础设施的大规模建设,更直接的原因则是AI 推理与智能体 AI(Agentic AI)负载的快速普及。
在此之前,GPU 一直是 AI 领域无可争议的硬件主角。凭借强大的并行计算能力,GPU 能够承担现代神经网络所需的繁重运算,尤其在模型训练阶段,拥有数千个核心的 GPU 可以高效完成将训练数据转化为权重参数所需的并行矩阵乘法。英伟达占据了数据中心市场的绝大部分份额,成为 AI 热潮的最大受益者,并成为全球首家市值突破 5 万亿美元的公司。
2025 年初,首轮 AI 热潮逐渐趋于理性,行业重心从AI 模型训练转向 AI 推理,同时智能体 AI这一全新工作负载开始崛起。一时间,AI 服务商需要并行运行成百上千个半自主 AI 智能体,这在基础设施层面形成了新瓶颈:数据在内存与 GPU 之间来回传输的速度。对高带宽内存(HBM)的巨大需求也波及了全球 NAND 闪存市场,导致 NVMe 硬盘短缺、价格大幅上涨。
在这一过程中,一向低调的 CPU 并未扮演主角。但随着 AI 不断演进,基础设施的需求重新回到了CPU 最擅长的领域。
原因在于:尽管 CPU 通常不直接运行 AI 模型,但它们负责支撑现代神经网络工作负载所需的大量关键任务,包括数据预处理、AI 模型编排、在大规模 GPU 集群中调度高算力任务等。这也是为什么英伟达、AMD 等厂商都在打造将 GPU(或其他 AI 加速芯片)与 CPU 融合在一起的 “超级芯片”。
在某些场景下,CPU 更是运行 AI 推理的首选硬件,尤其是在边缘侧运行的中小型模型。相比如今的大型 GPU,CPU 体积更小,功耗与散热要求更低。随着智能体 AI 革命加速,企业在部署 AI 时更倾向于在本地与边缘端运行模型,而非大型云数据中心 —— 部分原因是为了减少数据传输,因为数据传输本身就会带来高昂的计算成本。
“CPU 在今年重新变得吃香了,” 英特尔执行副总裁兼首席财务官戴维・津斯纳上周在摩根士丹利科技、媒体与电信大会的小组讨论中表示。“我们一直认为,在这些数据中心里,CPU 需要与 GPU 并肩发展。”
津斯纳表示,2025 年 CPU 整体市场规模增长了 20% 至 30%,2026 年将继续增长。
“我们开始看到客户在这一领域寻求长期供货协议,这说明这一趋势具备持续性。他们着眼于未来三到五年,希望与我们锁定供应。”
AMD 首席执行官苏姿丰也在上周旧金山的摩根士丹利大会上表达了相同观点。
“我对 GPU 业务感到非常兴奋,” 苏姿丰表示,“但CPU 业务的需求实际上远超我的预期。”
她指出,2025 年底至 2026 年初,高性能计算需求极为旺盛,AMD 下一代 GPU——MI450 将于 2026 年下半年推出。但受 AI 推动,需求增长的芯片并不只有 GPU。
“坦白说,随着推理需求上升,我们看到CPU 需求非常强劲。我们一直认为,计算架构是异构的,需要 CPU、GPU、FPGA 等各类组件。这一点在 2026 年真正成为现实。”
近日,在德国纽伦堡举办的2026 嵌入式世界博览会上,英特尔与 AMD 均发布了面向边缘 AI 负载的新款 CPU:
英特尔第二代酷睿系列(Core Series 2)专为需要更高多线程性能、更低延迟的工业与边缘应用设计;
全新 AMD 锐龙 AI 嵌入式 P100 系列处理器则面向工业 PC、物理 AI 与医疗应用。
全球显然需要更多 AI 加速芯片来承担 AI 所需的繁重计算。数万亿美元正投入到支撑新兴 AI 负载的基础设施中,其中大部分资金将流向英伟达、AMD、英特尔等厂商的 GPU 与各类 XPU。但作为能够承担多样化任务的通用处理器,低调的 CPU 在未来四年的数据中心建设浪潮中仍将占据重要地位。唯一让人意外的,或许是这次 CPU 需求的爆发来得如此猝不及防。















评论