新闻中心

EEPW首页 > EDA/PCB > 业界动态 > Arm为无处不在的AI奠定技术基础

Arm为无处不在的AI奠定技术基础

作者: 时间:2024-09-13 来源:EEPW 收藏

作为人工智能 (AI) 的创新基础,众多企业都在使用通用且应用广泛的  计算平台。迄今为止,合作伙伴基于  架构的芯片出货量已超过 2,900 亿颗。如今, 已为各类技术领域的 AI 应用提供支持,这也是为何 AI 的技术先行者们能够基于 Arm 平台快速创新的关键原因。

本文引用地址:https://www.eepw.com.cn/article/202409/462928.htm

无论是现在还是未来,Arm 平台都是 AI 运行的基石。若要满足对 AI 技术和应用的旺盛需求,则必须在计算领域的方方面面实现无处不在的 AI 功能。从使用无数处理器训练大语言模型 (LLM) 的大型数据中心,到全球数字消费者每天接触边缘 AI 的电子设备,计算领域的方方面面都有 AI 的身影。

高效的AI计算

若要满足 AI 对高算力的需求,则少不了对高效计算性能的投入。生成式 AI 的发展推动了对 AI 算力和资源的需求空前增长。一名荷兰研究人员指出,如果一年内每次使用 Google 进行搜索都运用到 AI,其所需的电力相当于爱尔兰全国一年的用电量。长远来看,考虑到地球上资源有限,这种方法是难以为继的。

Arm 提供了计算性能和能效的卓越组合,推动了智能手机领域的技术革新,而同样的趋势也正发生在 AI 革新中。

数据中心中的AI

头部超大规模服务运营商正采用定制芯片战略,来进行数据中心转型,以迎接 AI 时代。

软银公司正在与 NVIDIA 合作,建设全球首座采用基于 Arm 架构的 Grace Hopper 超级芯片的 5G AI 数据中心。这一突破性的 AI 加速 CPU 专为超大规模 AI 和高性能计算应用而设计。Grace Hopper 基于 72 颗 Arm Neoverse V2 核心打造,在 AI 的高负荷任务中实现了 10 倍的性能飞跃,同时大幅提高了每瓦性能。微软则在此前发布了其首款专为云计算打造的定制芯片 Azure Cobalt 100 处理器,该处理器基于 Arm Neoverse CSS N2 打造。此外,基于 Arm Neoverse 平台的 AWS Graviton3 可以使 AI 推理(使用训练后的模型对新的真实数据进行预测的过程)的成本节约 50%。

在数据中心中约有 85% 的 AI 工作负载用于运行推理,其驱动了各种用例、行业和设备的 AI 应用,因此企业有巨大的动力来降低相关的能源消耗和成本。

边缘AI

除了数据中心和云服务,许多 AI 工作负载还需要在设备上进行处理,以便更有效地分布 AI 工作负载

在设备上处理 AI 工作负载已经成为现实,无论是智能手机、智能家居设备还是智能汽车,这一趋势将继续增长,特别是随着大语言模型 (LLM) 变得更加高效,并针对特定任务、用例或设备而专门打造。直接在采集数据的设备上处理 AI 计算,可以带来更快、更安全的用户体验并减少延迟,这对于工业和汽车应用等对安全性要求很高的用例来说至关重要。

开发者正在编写更精简的 AI 模型,以在小型微处理器甚至更小的微控制器上运行,从而节省能源、时间和成本。例如,Plumerai 提供的软件解决方案可在基于 Arm Cortex-A 和 Cortex-M 的系统级芯片 (SoC) 上加速神经网络,并在基于 Arm 架构的微控制器上运行略高于 1MB 的 AI 代码,其可执行面部检测和识别等功能。

基于处理器技术的AI

无论是由 CPU 处理全部 AI 工作负载,还是由 GPU 或 NPU 等协处理器提供支持,AI 处理始于 CPU。

过去十年间,Arm 的 CPU 和 GPU 的 AI 处理能力每两年就实现翻番,目前 70% 的第三方应用中的 AI 都基于 Arm CPU 运行,在关键技术市场中推动了边缘 AI 的显著发展。

基于 Armv9 CPU 和 GPU 技术打造的高性能 AI 手机现已问世,其中包括搭载 MediaTek 天玑 9300 的 vivo X100 和 X100 Pro 智能手机,以及 Google Pixel 8,这是首款专为 Google 的 AI 模型 Gemini Nano 进行工程研发的智能手机,可在边缘执行一系列 AI 的任务。与此同时,超过 200 亿个基于 Arm 架构的 SoC 能够运行各种物联网设备上广泛的 ML 工作负载,包括基于 Cortex-M 处理器、Arm Ethos-U NPU 和 Cortex-A CPU 打造的设备。而在汽车领域,如今的车用芯片可实现基本的 AI 功能,如障碍物检测、3D 视图和简单的传感器融合,这些功能都在 Arm CPU 上运行。下一代基于 AI 的汽车功能,如先进驾驶辅助系统 (ADAS) 和自动驾驶功能,也基于 Arm CPU 而构建。

全球最大的开发者社区

Arm 持续的软件投入正建立起全球最大的 AI 开发者社区。

Arm 致力于以最常见的方式让开发者能够更简单、更快速、更安全地进行编码,携手实现无处不在的 AI。如今,超过一亿用户可以使用 Arm NN 软件开发工具包,在 Arm CPU 和 GPU 上优化 ML 工作负载。对于全球 1,500 万 Arm 架构设备开发者来说,这使他们能够运行复杂的 AI 和 ML 工作负载,确保将应用更快地推向市场。

Arm 在其业界领先的生态系统中开展了一系列合作,以使其对开发者的 AI 承诺付诸实践。此外,Arm还通过开源框架和库,为基于 Arm 架构的硬件提供强大的 ML 功能,为开发者提供全方位支持,包括 TensorFlow、PyTorch、Caffe 2、OpenVINO 和 TVM,从而为开源社区打造 AI 创新基础。

写在最后

AI 为下一个技术创新奠定了基础,引领社会进入一个潜力非凡的新时代。而实现这一切的前提正是让 AI 无处不在。这不仅意味着要在云端、数据中心和超级计算机中实现 AI,还要确保复杂的 AI 工作负载能够在更小、更受限的边缘技术和设备上运行。能效与性能对于推动边缘 AI 的发展同等重要。

Arm 正在促成这一目标。Arm提供了应用广泛的通用计算平台,赋能边缘设备和其他领域的各种可能性。无论是 CPU、GPU、ISP 还是 NPU,Arm 在每一代产品中都增加了更多 AI 性能、效率功能及安全特性,同时还为合作伙伴提供了多样的灵活性,使它们能够集成和开发自己的创新解决方案。而在软件、工具和生态系统方面,IP 与开源软件和工具乃至广泛的行业领先生态系统相结合,让全球上千万开发者都可以使用 Arm 计算平台作为 AI 创新的基础。从传感器、智能手机,到工业级物联网、汽车和数据中心,基于 Arm 平台的 AI 无处不在。



关键词: Arm

评论


相关推荐

技术专区

关闭