新闻中心

EEPW首页 > 智能计算 > 业界动态 > 亚马逊宣布推出新的AI芯片,加深与Nvidia的合作关系

亚马逊宣布推出新的AI芯片,加深与Nvidia的合作关系

作者:EEPW时间:2023-12-01来源:EEPW收藏

网络服务(Amazon Web Services,AWS)宣布推出Trainium2芯片,用于训练人工智能模型,并将提供对Nvidia最新一代H200 Tensor Core图形处理单元的访问。

本文引用地址:http://www.eepw.com.cn/article/202312/453488.htm

AWS将为客户和Nvidia提供一个专用的计算集群。 目前,AWS客户可以开始测试新的通用Graviton4芯片。

AWS云部门宣布推出新的芯片,供客户构建和运行人工智能应用程序,并计划提供对Nvidia最新芯片的访问。

网络服务正努力成为一家提供各种经济实惠选择的云服务提供商。然而,它不仅仅销售便宜的亚马逊品牌产品。与其在线零售市场一样,亚马逊的云服务将包括其他供应商的顶级产品,包括来自顶级芯片制造商Nvidia的备受追捧的GPU。

自从初创公司Open去年推出其ChatGPT聊天机器人以来,对Nvidia GPU的需求飙升,该机器人以其总结信息和生成类似人类文本的能力而让人印象深刻。这导致Nvidia芯片供不应求,因为公司争相将类似的生成式技术纳入其产品中。

亚马逊采用了建设自己的芯片和让客户访问Nvidia最新芯片的双管齐下策略,可能有助于对抗其最大的云计算竞争对手微软。本月早些时候,微软采取了类似的方式,推出了其首个AI芯片Maia 100,并表示Azure云将配备Nvidia H200 GPU。

这些公告是在拉斯维加斯的Reinvent大会上宣布的。具体而言,AWS表示将提供对Nvidia最新的H200人工智能图形处理单元的访问。它还宣布了新的Trainium2人工智能芯片和通用Graviton4处理器。

新的Nvidia GPU是H100的升级版,而H100芯片是OpenAI用来训练其最先进的大型语言模型GPT-4的芯片。各大公司、初创公司和政府机构都在争夺这些芯片的有限供应,这意味着有很高的需求从云服务提供商如亚马逊租用它们。Nvidia表示,H200将生成输出速度几乎是H100的两倍。

亚马逊自家的Trainium2芯片专为训练人工智能模型而构建,包括像OpenAI的ChatGPT及其竞争对手运行的那种AI聊天机器人。初创公司Databricks和亚马逊支持的Anthropic(OpenAI的竞争对手)计划使用新的Trainium2芯片构建模型,其性能将比原始模型提高四倍,亚马逊表示。

Graviton4处理器基于Arm架构,比Intel或AMD的芯片消耗更少的能源。Graviton4承诺比现有的Graviton3芯片性能提高30%,实现AWS所说的更高性价比的输出。通货膨胀一直高于平时,激发了央行加息的冲动。希望在继续使用AWS的同时降低云服务费用以更好地应对经济的组织,可能希望考虑转向Graviton。

亚马逊表示,已有超过50,000名AWS客户正在使用Graviton芯片。

最后,作为与Nvidia合作加深的一部分,AWS表示将运营超过16,000个Nvidia GH200 Grace Hopper Superchips,其中包含Nvidia GPU和Nvidia的基于Arm的通用处理器。Nvidia自己的研发团队和AWS客户都将能够利用这一基础设施。

自2006年发布EC2和S3服务以来,AWS推出了200多种云产品。其中并非所有都取得了成功。有些长时间没有更新,极少数被停止,使亚马逊能够重新分配资源。然而,该公司继续投资于Graviton和Trainium计划,表明亚马逊感觉到了需求。

AWS并未宣布带有Nvidia H200芯片的虚拟机实例或依赖其Trainium2硅片的实例的发布日期。在未来几个月内,客户可以开始测试Graviton4虚拟机实例,然后这些实例将商业化。



关键词: 亚马逊 英伟达 AI

评论


相关推荐

技术专区

关闭