AMD考虑并设计Yottascale AI计算
在苏振伟担任AMD首席执行官超过十一年的领导下,公司从Opteron流亡中回归,成为英特尔数据中心强大的CPU对手,这在很大程度上得益于苏苏、首席技术官Mark Papermaster及无数其他人推动的Zen微架构和Epyc服务器芯片的创新。正如我们之前指出的,这也要归功于英特尔自身的失误。
在这个人工智能时代,这家厂商正寻求在由英伟达(Nvidia)主导的GPU系统市场中开辟更大的市场空间。
AMD仍有很长的路要走,但他们正努力将其Instinct GPU推向一个被视为Nvidia有吸引力的替代选择的地位。它最近宣布与OpenAI的合作,三年前OpenAI通过ChatGPT的推出开启了当前的生成式人工智能趋势,并且像竞争对手一样,推动代理人工智能,这无疑会帮助AMD加入一个渴望更多计算能力且似乎有资金支持的公司。这继承了AMD其他AI驱动的合作,包括去年春初与甲骨文宣布的合作。
正是在这样的背景下,苏俊彦登台,在拉斯维加斯举办的年度消费电子展2026大型活动上发表开幕主题演讲,并指出人工智能领域对计算能力需求迅速增长。她说,AMD是最适合且最有准备提供这种能力的,补充说它不仅能提供GPU和CPU,还能提供神经处理单元(NPU)和系统架构,以满足每年增长超过四倍的计算需求,跟上了更智能、更实用型号的兴起。 推理能力的飞跃,以及特工的崛起。
苏说:“要满足这种计算需求,整个生态系统必须团结起来。”“我们喜欢说,真正的挑战是如何将人工智能基础设施按比例化?这不仅仅需要纯粹的性能。这始于领导力的计算、CPU、GPU、网络的整合。它需要一种开放式模块化机架设计,并且可以随着产品世代不断演进。它需要高速网络连接成千上万个加速器,形成一个统一系统。而且必须非常容易部署。”

这时,AMD 即将推出的下一代机架级平台 Helios 登场,首席执行官表示其设计是为 Yotta 级时代设计的。这是一种基于开放计算项目(Open Compute Project)开放机架宽标准的双宽设计,重量接近7000磅。今年将上市的Helios还将搭载AMD最新的AI显卡Instinct MI455X和新一代Epyc“Venice”服务器CPU,苏在主题演讲阶段展示了这两款CPU。

“对于没见过胸架的人,我告诉你们,赫利俄斯是个怪物般的胸膛,”她说。“这可不是普通的rack,好吗?实际上,这不仅仅是两辆紧凑型车。”

苏还为AMD未来两年的数据中心GPU规划规划了相关产品,首先是今年即将发布的Instinct MI455X。它是一个拥有3200亿晶体管的GPU插槽——比大约六个月前发布的MI355X多70%——采用2纳米和3纳米架构,432 GB的HBM4堆叠内存,所有数据通过AMD的3D芯片堆栈技术连接。

MI455X 还加速了 AMD GPU 的性能提升。随着MI355X的发布,芯片制造商的推理吞吐量是上一代的三倍。MI455X 的性能是 MI355X 的 10 倍。
随着明年MI500系列的发布,这一趋势将进一步加速,该系列目前正在开发中。该GPU将基于AMD下一代CDNA 6架构,采用2纳米工艺技术制造,并采用更快的HBM4E(高带宽内存4扩展)。她表示,当该产品于2027年上市时,这意味着AMD在四年内实现了1000倍的AI性能提升。
Helios还将搭载AMD最新的Epyc处理器,代号Venice,基于2纳米工艺技术,拥有多达256个Zen 6核心。
苏说:“我们将内存和GPU带宽比上一代提升了一倍,这样Venice即使在机架规模下也能全速向MI455传输数据。”“这其实是关于共同工程。我们通过800 Gb/sec的以太网Pensando“Vulcano”和“Salina”网络芯片将所有这些整合在一起,提供超高带宽和超低延迟。”
Helios系统中的每个液冷托盘将包含四块MI455X GPU、Venice CPU以及Pensando Vulcano和Salina网络芯片。

“数万台Helios机架可以在数据中心范围内扩展,”苏说。“这意味着每个Helios机架拥有超过18,000个CDNA5 GPU计算单元和4,600多个Zen 6 CPU核心,提供高达2.9亿亿次浮点运算的性能。每个机架还配备31TB的HBM4内存,业界领先的260TB每秒扩展带宽,以及43TB每秒的综合扩展带宽,实现数据进出的极快传输。”
AMD正在对英伟达采取行动,并有一份路线图表示将继续这样做。但它将冲击一个快速变化的市场领导者。正如我们本周所写,英伟达在CES上公布了其即将推出的“Rubin”GPU加速器和基于Arm的“Vera”服务器CPU的统计数据,更不用说NVLink内存结构的扩展和Spectrum以太网互连的扩展,更不用说新的网卡和DPU。





评论