新闻中心

EEPW首页 > 智能计算 > 业界动态 > NVIDIA:DPU将成为驱动数据中心网络运作的引擎

NVIDIA:DPU将成为驱动数据中心网络运作的引擎

作者:​ 王岫晨时间:2021-08-22来源:CTIMES收藏

科技圈终于在本周首度揭开 的面纱。这款芯片在去年开辟出 DPU 这个产品类别,而云端服务、超级计算机及许多 OEM 业者与软件合作伙伴已纷纷开始采用。

本文引用地址:http://www.eepw.com.cn/article/202108/427728.htm

图片.png 
DOCA 的软件平台有助于快速开发 DPU 上的网络、储存和安全应用程序
带领以色列 设计团队的首席架构师 Idan Burstein,在 Hot Chips 大会上介绍 DPU 的架构。Hot Chips 每年皆吸引众多全球顶尖的微处理器设计师出席这场年度盛会。在这场演讲中,将发表一款用于加速现代数据中心的芯片引擎,这款引擎中有着一组硬件加速器与通用 Arm 核心,可以加快网络、安全性功能及储存工作的运作速度。
这些工作包含虚拟化数据中心的硬件,同时确保网络流量的安全和顺畅,包括在硬件中加速运行数据中心基本任务中不断增加的作业负载,像是:
 安全性方面的 IPsec、TLS、AES-GCM、RegEx 及Public Key Acceleration
 储存方面的 NVMe-oF、RAID 及 GPUDirect Storagee
 网络方面的 RDMA、RoCE、SR-IOV、VXLAN、VirtIO 及 GPUDirect RDMA
 视讯串流及时间敏感性通讯的卸除


这些作业负载的成长速度已经超越摩尔定律,占据三分之一的服务器 CPU 运行周期。DPU 将这些专用硬件整合起来,以更高效的方式来运行这些工作,释放出更多 CPU 核心来处理数据中心的应用。
DPU 在不牺牲裸机效能的情况下提供虚拟化和先进的安全功能,它们的应用范畴涵盖云端运算、媒体串流、储存、边缘处理和高效能运算等多个领域。
执行长黄仁勋形容 DPU 为未来运算领域发展的三大支柱之一。CPU 用于通用运算、GPU 用于加速运算,而 DPU 则在数据中心内移动数据以进行处理。
将 DPU 用于数据中心及云端环境
全球已有多个最大型的云端环境及一台 TOP500 排行榜上的超级计算机,采用在 Hot Chips 大会介绍的架构,并与下一代防火墙进行整合。多个顶尖 OEM 推出的系统很快也会采用这个架构,和来自超过十家软件合作伙伴的支持。
全球多个云端服务供货商正使用或准备部署 DPU,以安全配置运算实例。
BlueField 助力超级计算机及防火墙
剑桥大学利用 DPU 的效率,于今年六月推出了英国最高速的学术研究超级计算机,它在全球最节能系统的 Green500 排行榜上位居第三。它是全球第一部云端原生超级计算机,研究人员可以在不影响效能的情况下,以保有隐私和安全的方式共享虚拟资源。
所有数据中心可以透过 Palo Alto Networks 的 VM-Series 新世代防火墙,获得 DPU 的安全性功能。BlueField-2 可以加快 VM-Series 新世代防火墙的运作速度,检查过去无法检查的网络流量。
DPU 很快就会现身在华硕 (ASUS)、源讯 (Atos)、戴尔科技 (Dell Technologies)、富士通 (Fujitsu)、技嘉 (GIGABYTE)、新华三 (H3C)、浪潮 (Inspur)、广达 (Quanta)/ 云达 (QCT) 及 美超威 (Supermicro) 推出的系统中,其中有部分业者在五月的COMPUTEX 大会中宣布了相关计划。
财务长 Collette Kress 在五月的财报会议上表示:「世界上的每一个网络芯片都将成为智能网络芯片,而这就是所谓的 DPU,它是芯片上的数据中心。」他预测日后每台服务器都会搭载一个 DPU。
以 DPU 驱动的网络近在眼前
Dell’Oro Group 的市场观察员预测,智能网络端口的出货量将增加近一倍,从 2020 年的 440 万上升到 2025 年的 740 万。
NVIDIA 为了迎向这股成长动能,在 GTC 大会上宣布了接下来两代 DPU 的发展路线图。明年开始送样的 BlueField-3,将驱动高达每秒 400Gbit 的网络,并拥有 300 个 x86 核心的运算实力。BlueField-4 在加入 NVIDIA 人工智能 (AI) 运算技术后将能大幅提升效能。
从市场动能及本周的 Hot Chips 大会演讲中可以看出,正如 NVIDIA 在 AI 领域的作为一般,如今 NVIDIA 也正引领着加速网络的发展。



评论


相关推荐

技术专区

关闭