华为直指AI存储器市场,将发布自研AI SSD
华为定于8月27日召开「AI SSD,加速智能经济涌现」新品发布会,剑指AI存储器赛道,计划以技术创新推出大容量AI SSD,突破传统HBM的容量限制。

在当前的AI存储器领域,HBM占据重要地位 —— HBM是一种通过3D堆叠和超宽接口,实现极高数据传输带宽的先进内存技术,通常直接封装在GPU卡中。问题在于,传统HBM受容量制约,难以满足AI大模型等场景需求,HBM牺牲容量换取极致带宽和能效的策略导致现有算力卡上HBM的容量比较有限。
华为将发布的全新AI SSD产品,可以有效满足AI训练推理过程中的超大容量和超强性能的需求,助力AI训练推理、大模型部署。此举将进一步强化华为存储器在AI时代的竞争力,推动国产存储生态发展。

随着全球AI算力需求以每年200%的速度激增,传统存储架构正面临前所未有的挑战。HBM虽以3.6TB/s的带宽成为GPU黄金搭档,但其单颗容量上限仅为24GB,且每GB成本高达DRAM的5倍,导致千亿参数大模型训练成本突破千万美元。更致命的是,HBM需依赖TSV封装技术,全球仅三星、SK海力士掌握核心工艺,供应链安全风险陡增。
华为即将发布的AI SSD新品是其“以存代算”技术理念的核心硬件载体,旨在通过存储架构创新突破AI推理中的“内存墙”瓶颈,降低对HBM的依赖。“以存代算”是技术理念,AI SSD是落地载体,共同构成华为应对先进制程限制的系统性解决方案。该技术通过将AI推理所需的矢量数据从DRAM内存迁移至SSD闪存介质优化计算效率,核心价值在于缓解先进制程限制(如华为受7nm制程制约)、降低对HBM/GPU的过度依赖,其本质是存储层扩展(从内存到SSD),而非DRAM的替代品。
· 存算一体架构:在SSD主控芯片集成AI加速单元,实现数据存储与预处理同步完成,减少80%的数据搬运能耗;
· 36层DOB堆叠工艺:突破传统16层限制,单芯片容量达36TB,单硬盘容量提升至256TB,单位成本降低40%;
· CXL 2.0互联技术:直接扩展GPU显存,解决"显存墙"问题,使A100 GPU利用率提升35%。
这一技术组合使AI SSD在保持HBM级带宽的同时,容量提升10倍以上,彻底改写AI存储的性价比公式。IDC预测,到2026年AI SSD将占据12%的NAND闪存市场份额,年复合增长率超60%。不过,这并非华为独有技术,铠侠、美光、英伟达等巨头同步布局,华为因受美国制裁无法突破先进制程转向系统级创新,是其布局该技术的特殊动因。














评论