Imec 解决了 3D HBM on GPU 架构中的热极限
Imec在下一代3D HBM-on-GPU架构中热量管理方面取得了重大进展,展示了其系统-技术协同优化(STCO)方法能够显著降低AI训练工作负载下的GPU温度。该工作本周在2025年IEEE国际电子器件会议(IEDM)上发表并发布,展示了跨层设计策略如何将3D集成计算平台的峰值热量从140°C以上降至约70°C。
他们中许多人正处于先进封装、半导体设计和人工智能加速的交叉领域——这些发现为高密度3D架构的可行性以及塑造下一代计算系统的关键热策略提供了宝贵见解。

随着AI模型不断突破内存带宽和计算吞吐量的极限,工程师们正在探索将高带宽内存(HBM)直接集成到GPU之上的架构。Imec的研究重点是每个封装配备四枚GPU和四个HBM堆栈——每个堆栈包含十二个混合粘接的DRAM芯片——通过微凸起垂直安装在GPU上。与当今2.5D方法相比,后者HBM堆叠与GPU并置于硅中介体上,Imec指出,这种3D布局有望显著提升内存容量和带宽。
然而,这些优势也伴随着陡峭的热能挑战。垂直堆叠增加了局部功率密度和热阻,初步模拟显示在真实AI工作负载下GPU峰值温度达到141.7°C——远高于GPU和HBM的可接受极限。相比之下,在相同冷却条件下,类似的2.5D配置峰值为69.1°C,Imec指出。
技术与系统级热能策略的协同优化
Imec的研究团队通过STCO方法来解决这一问题,联合评估技术层面和系统层面的减缓方案,形成全面的热模型。该模型应用了行业衍生的功率图来定位热点,作为优化的基线。
技术层面的杠杆包括HBM堆叠合并和硅的热特性优化。在系统层面,研究人员评估了双面散热和GPU频率缩放等指标。据imec称,结合这些策略将峰值温度从难以控制的141.7°C降至70.8°C——使三维架构与当今实用的二维解决方案保持一致。
Imec指出:“结果展示了将跨层优化(即在所有不同抽象层共同优化旋钮)与广泛技术专长相结合的强大优势,这种组合是imec独有的。”
该研究标志着首次对3D HBM与GPU集成进行全面的热STCO分析,强调了封装、器件技术和系统设计的协调工程对于推动新一代AI加速器至关重要。














评论