跨多个数据中心和 GPU 架构训练生成式 AI 模型
一位行业分析师最近透露,中国已经开发了跨多个数据中心的单一生成式 AI (GAI) 模型,考虑到在单个数据中心使用不同 GPU 的复杂性,更不用说在多个地理位置使用服务器了,这是一项巨大的壮举。Moor Insights & Strategy的首席分析师Patrick Moorhead在X(前Twitter)上表示,中国是第一个实现这一成就的国家,他是在一次可能无关的NDA会议的对话中发现的。
本文引用地址:https://www.eepw.com.cn/article/202409/463387.htm这种在不同地点/架构中训练 GAI 的技术对于中国保持其 AI 梦想向前发展至关重要,尤其是在美国制裁阻止其获得最新、最强大的芯片来推动其研发的情况下。由于英伟达不想失去中国市场,因此它制造了功能较弱的 H20 AI 芯片,这些芯片属于华盛顿的限制性性能参数。然而,有传言称,即使是这些降级的芯片也可能很快被禁止,这凸显了中国科技公司在当前政治气候下面临的不确定性。
由于这种不确定性,中国研究人员一直在努力将不同品牌的 GPU 融合到一个训练集群中。通过这样做,这些机构可以将他们有限的受制裁高端、高性能芯片(如 Nvidia A100)库存与功能较弱但现成的 GPU(如华为的 Ascend 910B 或上述 Nvidia H20)相结合。这项技术可以帮助他们解决中国高端 GPU 短缺的问题,尽管历史上效率会大幅下降。
然而,中国似乎已经找到了解决这个问题的方法,尤其是跨多个数据中心开发单一 GAI 的消息。虽然我们还没有关于这个 GAI 的任何信息,但它显示了中国研究人员将不遗余力,以确保他们能够继续推动中国的 AI 雄心向前发展。正如华为所说,尽管受到美国的制裁,中国将想方设法继续推进其人工智能发展。毕竟,需求是发明之母。
评论