新闻中心

EEPW首页 > 智能计算 > 市场分析 > 微软重磅官宣推出 AI 自研芯片,与H100、特斯拉D1等AI芯片性能对比

微软重磅官宣推出 AI 自研芯片,与H100、特斯拉D1等AI芯片性能对比

作者:时间:2023-11-19来源:半导体产业纵横收藏

北京时间周四凌晨 1 点,(Microsoft)Ignite 技术大会在西雅图揭幕,该公司 CEO 萨蒂亚·纳德拉进行了接近 1 个小时的开幕演讲,介绍了 龙头取得的最新进步。

本文引用地址:http://www.eepw.com.cn/article/202311/453077.htm

此次,发布了首款自家研发的人工智能()芯片 Maia 100,以及应用于云端软件服务的芯片 Cobalt。两款芯片将由台积电代工,采用 5nm 制程技术。

目前, 芯片市场由英伟达(Nvidia)独霸,有大量 AI 芯片需求的科技大厂极力寻求可替代的供应来源; 自行研发,希望增强 ChatGPT 等生成式 AI 产品的性能,同时降低成本。

Cobalt 是基于 Arm 架构的通用型芯片,具有 128 个核心,Maia 100 为特定 AI 加速器,用于云端训练和推理的,晶体管数量达到 1050 亿个。这两款芯片明年将导入微软 Azure 数据中心,支持 OpenAI、Copilot 等服务。

目前,英伟达在 AI 芯片市场的市占高达 80% 左右,需求强劲,高端产品一颗有时可卖到 3 万到 4 万美元。日经亚洲指出,用于 ChatGPT 的芯片被认为大概就需要有 1 万颗,这对 AI 公司是个庞大成本。

负责 Azure 芯片部门的副总裁 Rani Borkar 表示,微软已开始用 Bing 和 Office AI 产品测试 Maia 100 芯片,微软主要 AI 合作伙伴、ChatGPT 开发商 OpenAI,也在进行测试中。

彭博资讯指出,微软的多年投资显示,芯片对于在 AI 和云计算领域取得优势至关重要。自研芯片可以让微软从硬件中获得性能和价格优势,还可以避免微软过度依赖任何一家供应商。目前业界对英伟达 AI 芯片的争夺战,更加凸显了这个问题。

在微软进军自研处理器之前,在云计算市场上的竞争对手也采取类似策略。亚马逊在 2015 年收购了一家芯片制造商,并提供多种云端运算与 AI 芯片服务。Google 从 2018 年开始,也已让客户使用其 AI 加速处理器。

除了发布的这两款芯片,业界一直在传,微软有一个代号为「Athena」的 AI 芯片项目,2019 年就开始了内部研发。据悉,微软希望 Athena 芯片的性能优于目前从其它供应商处购买的芯片,从而节省其在昂贵的 AI 业务上的时间和成本。

有市场评论认为,微软 AI 芯片立项的时机很巧,正好在微软、OpenAI 等公司培养的大型语言模型已经开始腾飞之际。两位知情人士表示,OpenAI 的 ChatGPT 聊天机器人的发布让人们兴奋──根据分析师预估,截至今年 1 月,也就是 ChatGPT 发布两个月后,该机器人已经拥有超过 1 亿用户──这促使微软加快 Athena 的研发和推出。

知情人士说,微软最快可以在明年让 Athena 在公司和 OpenAI 内部广泛使用。不过其中一名知情人士表示,微软内部仍在争论是否会向其 Azure 云计算服务的客户提供这些芯片。

如果微软确实走向其云计算客户提供芯片,它还必须为其打造比英伟达当前产品更具吸引力的软件,英伟达在该领域已深耕 15 年,其软件产品已在全球广泛使用。

调研公司 SemiAnalysis 的首席分析师 Dylan Patel 估算,ChatGPT 的运营成本为每天约 70 万美元或每次查询 0.36 美元。Patel 说:「大部分成本来自其所需的昂贵服务器。和英伟达产品相比,若 Athena 具竞争力,可以将每个芯片的成本降低三分之一。」

Patel 还表示,微软希望他们在所有的应用程序中都使用这个大型语言模型,包括 Bing、Microsoft 365 和 GitHub。如果采用英伟达现成的软件进行大规模部属,光芯片这一项成本每年就要烧掉数百亿美元。

微软并不认为自己的 AI 芯片可以广泛替代英伟达的产品。有分析认为,微软的这一努力如果成功的话,也有可能帮助它在未来与英伟达的谈判中更具优势。

此次,微软还推出了名为 Sidekicks 的定制液冷硬件,该硬件安装在包含 Maia 服务器的机架旁边的机架中。一位发言人表示,该公司无需改造即可安装服务器机架和 Sidekick 机架。

在网络连接方面,为了满足 AI 和未来工作负载的要求,微软推出了新一代空芯光纤(Hollow Core Fiber),利用空气作为光纤的导光介质,能够将传输速度提高 47%。当然这也与微软的「钞能力」有关,公司在去年 12 月底收购了这条赛道的领跑者英国 Lumenisity。

会上,纳德拉宣布 Azure Boost 数据中心硬件也将正式投入商用。该系统能够将存储和网络进程将主机转移到专用硬件和软件上,从而提高速度。

据千芯科技董事长陈巍博士分析,就 Maia 100 性能来看,MXFP4 算力达到了 3200TFLOPS,MXInt8 算力达到 1600TFLOPS(这里有可能是新闻笔误,因为 INT8 算力一般按照 TOPS 单位)。SIMD 算力为 48TFLOPS,具备 140MB L1 缓存和 448MB L2 缓存,HBM3 容量为 64GB,TDP 功耗 860W,采用 TSMC N5 工艺,面积 820mm^2,105BIllion 晶体管。

对比一下 Maia 100 和其他几个家世显赫的芯片性能,可以看到 Maia 具有大量的片上 SRAM(单芯片合计 588MB),甚至超过了特斯拉 D1,有可能是存算一体(近存计算)架构的 AI DSA。初步猜测其架构和液冷方式与特斯拉 Dojo 接近。

紧密联系合作伙伴

基于微软与 AI 软件龙头 OpenAI 的紧密关系,所以微软 Azure 云服务也将在第一时间向用户提供 OpenAI 的最新产品,例如 GPT-4 Trubo 和多模态能力,以及基于 GPT-4 的微调。

微软也在今天宣布推出「MAAS」产业模式(Models as a Service/模型即服务),用户可以直接通过微软的服务来调用 API、微调和部署各类开源大模型。微软也已经与 Meta 等一众大模型开发商达成合作,将 Llama 2 等知名 LLM 作为一项服务推出。

纳德拉宣布,Azure 云将发布英伟达的 AI 工坊服务(AI foundry service),为此他还请来了黄仁勋,讲述两家 AI 巨头从硬件到软件的全面合作。

据悉,英伟达 AI 工坊涵盖英伟达的 AI 基础模型、NeMo 框架和工具,以及英伟达 DGX Cloud AI 超级计算和服务三大要素。微软用户将可以在 Azure 云上利用英伟达的 AI 软件生成并部署模型。

黄仁勋表示,AI 的第一波浪潮源自 OpenAI 等一批创业公司,而现在整个产业已经进入了第二波浪潮,由微软 Copilot 推动的企业级 AI。在他看来,第三波也是最大的那一波将会是整个世界的重工业数字化,并从生成式 AI 中获益。



关键词: 微软 AI

评论


相关推荐

技术专区

关闭