超越HBM!HBF未来崛起,NAND堆叠成为AI新的存储驱动力
据韩媒报道,被韩媒誉为“HBM之父”的韩国科学技术院(KAIST)电气工程系教授金仲浩表示,高带宽闪存(HBF)有望成为下一代AI时代的关键存储技术,并将与HBM并行发展,共同推动各大芯片厂商的性能增长。
HBF的设计理念与HBM类似,都利用硅通孔(TSV)连接多层堆叠芯片。不同的是,HBM以DRAM为核心,而HBF则利用NAND闪存进行堆叠,具有“更高容量、更划算”的优势。Kim Joung-ho指出,虽然NAND比DRAM慢,但其容量通常大10倍以上。有效地堆叠数百层甚至数千层,可以满足AI模型的海量存储需求,有可能成为HBM的NAND版本。
生成式AI模型正在迅速扩展,单个模型的输入令牌数量已经达到数百万,处理需要数TB的数据。在每秒数千次读写作中,内存带宽不足可能会造成瓶颈,从而显着减慢ChatGPT和Google Gemini等大型语言模型(LLM)的响应速度。
Kim Joung-ho强调,这种限制来自当前的冯·诺依曼架构。由于GPU和内存是分开设计的,数据传输带宽决定了性能上限。“即使GPU大小翻倍,如果带宽不足,也没有意义。”
他预测,未来的GPU将同时整合HBM和HBF,形成一个互补的架构:HBM将作为实时数据处理的高速缓存,而HBF将提供大容量存储,直接存储完整的AI模型。这将有助于克服内存瓶颈,使GPU能够处理更大、更复杂的生成式AI,甚至包括长片。Kim Joung-ho表示:“未来,AI将超越文本和图像,能够生成长片。所需的内存容量将比目前大1000倍以上。









评论