新闻中心

EEPW首页 > 网络与存储 > 业界动态 > 超越HBM!HBF未来崛起,NAND堆叠成为AI新的存储驱动力

超越HBM!HBF未来崛起,NAND堆叠成为AI新的存储驱动力

作者: 时间:2025-09-19 来源: 收藏

据韩媒报道,被韩媒誉为“之父”的韩国科学技术院(KST)电气工程系教授金仲浩表示,高带宽闪存()有望成为下一代时代的关键技术,并将与并行发展,共同推动各大芯片厂商的性能增长。

的设计理念与类似,都利用硅通孔(TSV)连接多层堆叠芯片。不同的是,HBM以DRAM为核心,而则利用NAND闪存进行堆叠,具有“更高容量、更划算”的优势。Kim Joung-ho指出,虽然NAND比DRAM慢,但其容量通常大10倍以上。有效地堆叠数百层甚至数千层,可以满足模型的海量需求,有可能成为HBM的NAND版本。

生成式AI模型正在迅速扩展,单个模型的输入令牌数量已经达到数百万,处理需要数TB的数据。在每秒数千次读写作中,内存带宽不足可能会造成瓶颈,从而显着减慢ChatGPT和Google Gemini等大型语言模型(LLM)的响应速度。

Kim Joung-ho强调,这种限制来自当前的冯·诺依曼架构。由于GPU和内存是分开设计的,数据传输带宽决定了性能上限。“即使GPU大小翻倍,如果带宽不足,也没有意义。”

他预测,未来的GPU将同时整合HBM和HBF,形成一个互补的架构:HBM将作为实时数据处理的高速缓存,而HBF将提供大容量,直接存储完整的AI模型。这将有助于克服内存瓶颈,使GPU能够处理更大、更复杂的生成式AI,甚至包括长片。Kim Joung-ho表示:“未来,AI将超越文本和图像,能够生成长片。所需的内存容量将比目前大1000倍以上。



关键词: HBM HBF NAND堆叠 AI 存储

评论


相关推荐

技术专区

关闭