新闻中心

EEPW首页 > 智能计算 > 业界动态 > 跨多个数据中心和 GPU 架构训练生成式 AI 模型

跨多个数据中心和 GPU 架构训练生成式 AI 模型

作者: 时间:2024-09-30 来源:Toms hardware 收藏

一位行业分析师最近透露,中国已经开发了跨多个的单一生成式 AI (GAI) ,考虑到在单个使用不同 的复杂性,更不用说在多个地理位置使用服务器了,这是一项巨大的壮举。Moor Insights & Strategy的首席分析师Patrick Moorhead在X(前Twitter)上表示,中国是第一个实现这一成就的国家,他是在一次可能无关的NDA会议的对话中发现的。

本文引用地址:https://www.eepw.com.cn/article/202409/463387.htm

这种在不同地点/架构中训练 GAI 的技术对于中国保持其 AI 梦想向前发展至关重要,尤其是在美国制裁阻止其获得最新、最强大的芯片来推动其研发的情况下。由于英伟达不想失去中国市场,因此它制造了功能较弱的 H20 AI 芯片,这些芯片属于华盛顿的限制性性能参数。然而,有传言称,即使是这些降级的芯片也可能很快被禁止,这凸显了中国科技公司在当前政治气候下面临的不确定性。

由于这种不确定性,中国研究人员一直在努力将不同品牌的 融合到一个训练集群中。通过这样做,这些机构可以将他们有限的受制裁高端、高性能芯片(如 Nvidia A100)库存与功能较弱但现成的 (如华为的 Ascend 910B 或上述 Nvidia H20)相结合。这项技术可以帮助他们解决中国高端 GPU 短缺的问题,尽管历史上效率会大幅下降。

然而,中国似乎已经找到了解决这个问题的方法,尤其是跨多个开发单一 GAI 的消息。虽然我们还没有关于这个 GAI 的任何信息,但它显示了中国研究人员将不遗余力,以确保他们能够继续推动中国的 AI 雄心向前发展。正如华为所说,尽管受到美国的制裁,中国将想方设法继续推进其人工智能发展。毕竟,需求是发明之母。



评论


相关推荐

技术专区

关闭