新闻中心

EEPW首页 > 智能计算 > 业界动态 > Microsoft 推出最新的自家 AI 芯片

Microsoft 推出最新的自家 AI 芯片

—— Microsoft 推出最新的自家 AI 芯片——Maia 200 比其他定制的 Nvidia 竞争对手更快,采用台积电 3nm 处理器,配备 216GB HBM3e 处理器
作者: 时间:2026-01-27 来源: 收藏

每美元性能比 Maia 100 高 30%,速度也快于 Amazon或Google。

1769476474611076.png

 推出了其最新的人工智能加速器—— Azure 。这款全新的自家人工智能芯片是 Maia GPU系列的下一代产品,这是一款服务器芯片,旨在推理出具有惊人速度和数据源的AI模型,以超越亚马逊和谷歌等超大规模竞争对手的定制产品。

被誉为Microsoft有史以来部署的“最高效推断系统”,其所有新闻稿都在赞扬其高性能数据和强调Microsoft对环保主义的口头支持之间分配时间。Microsoft声称每美元比第一代Maia 100高出30%,这在技术上也宣称比前代高出50%的TDP是一项令人印象深刻的成就。

Maia 200基于台积电的3纳米工艺节点构建,包含1400亿个晶体管。Microsoft称该芯片的FP4计算能力可达10千万亿次浮点,是亚马逊竞争对手Trainium3的三倍。Maia 200 还配备了 216 GB 的 HBM3e 内存,7 TB/s 的 HBM 带宽,并配备了 272MB 的片内 SRAM。

Maia 200 vs 亚马逊 Trainium3 vs Nvidia Blackwell B300 Ultra

1769476537348570.png

如上所示,Maia 200在纯计算能力上明显领先于亚马逊内部竞争对手,并引发了与英伟达顶尖GPU并列的有趣讨论。显然,直接比较两者是徒劳无功;外部客户无法直接购买Maia 200,Blackwell B300 Ultra专为性能远超Microsoft芯片的应用场景设计,而英伟达的软件架构则远远领先于任何同时代产品。

不过,Maia 200在效率上确实超过了B300,这在当今公众对AI环境影响的反感日益高涨中,是一大胜利。Maia 200的TDP几乎是B300的一半(750W对1400W),如果它和Maia 100类似,它的工作量将低于理论最大TDP;Maia 100原本设计为700W芯片,但Microsoft声称其实际运行功率限制为500W。

Maia 200 针对 FP4 和 FP8 性能进行了调校,专注于服务那些推理出渴望 FP4 性能的 AI 模型,而非更复杂的作。Microsoft 为该芯片投入的大量研发预算似乎已投入到其 272MB 高效 SRAM 内存库内的内存层级结构中,该内存分为“多层集群级 SRAM (CSRAM) 和 Tile 级 SRAM(TSRAM)”,以适应更高的运行效率,并秉持智能且均匀地将工作负载分散到所有 HBM 和 SRAM 芯片的理念。

由于Microsoft官方数据表中两款芯片几乎没有重叠或共享的测量数据,Maia 200相比其前代Maia 100的改进很难衡量。目前我们只能说,Maia 200的运行温度将比Maia 100更高,而且在每美元性能指标上显然提升了30%。

Maia 200 已部署于 Microsoft 的美国 Central Azure 数据中心,随着 Microsoft 获得更多芯片,未来还将部署于亚利桑那州凤凰城的 US West 3 及更多。该芯片将成为Microsoft异构部署的一部分,同时与其他AI加速器协同运行。

Maia 200,最初代号Braga,因其长期延迟的开发和发布而引起轰动。该芯片原本计划在2025年发布和部署,甚至可能抢先于B300,但这并非预期。Microsoft的下一款硬件发布尚不确定,但据十月报道,很可能将采用Intel Foundry的18A工艺制造。

Microsoft围绕Maia 200的效率优先宣传,延续了其近期强调公司对数据中心附近社区的关切,竭力平息对AI热潮的反弹。Microsoft首席执行官Satya Nadella最近在世界经济论坛上谈到,如果企业无法帮助公众看到AI开发和数据中心建设的所谓好处,他们就有可能失去“社交许可”,并制造出令人畏惧的AI泡沫。


评论


相关推荐

技术专区

关闭