新闻中心

EEPW首页 > 智能计算 > 市场分析 > TPU突围,谷歌积极推销自研芯片

TPU突围,谷歌积极推销自研芯片

—— 首款2nm SRAM,为AI数据中心带来什么?
作者: 时间:2025-09-10 来源:半导体产业纵横 收藏

据报道,谷歌近来接触了一批主要购买英伟达芯片的小型云服务供应商,商谈在他们的数据中心里同时部署。知情人士称,谷歌已经有所进展,与总部位于伦敦的 Fluidstack 达成协议,在其纽约的一处数据中心托管谷歌 

谷歌也曾试接触过其他云服务商,包括有「英伟达亲儿子」之称的 CoreWeave。谷歌的谈判表明其正试图接近那些「背靠英伟达扶持」的新兴云服务供应商。与谷歌、亚马逊这样的大型云服务公司不同,这些新兴企业几乎只使用英伟达的芯片,而且更愿意采购多种英伟达产品。英伟达已向其中的许多公司注资,并优先供应眼下最抢手的芯片。

据悉,谷歌谈妥 Fluidstack 的方式很简单粗暴——如果 Fluidstack 无法承担建造纽约数据中心的费用,谷歌同意作为「后备担保」来介入,并提供最高 32 亿美元的资金支持。

目前尚不清楚为何谷歌积极向外部数据中心推销自研芯片。要知道在此之前,谷歌基本不对外出售自研 。Capvision 此前数据显示,谷歌 70%-80% 的算力用于内部业务场景使用,剩余 20%-30% 以自建租赁方式供外使用。

有分析认为,或许是由于谷歌自建数据中心速度难以追上芯片需求增长,或可能是希望通过其他云服务商为自家 TPU 寻找更多新客户。如果是第二种原因,那么谷歌无异于更直接地在与英伟达展开竞争。分析指出,第二种做法类似于云服务商租赁英伟达 GPU 的模式,英伟达主要是向这些云服务商销售芯片,而谷歌扩大部署 TPU,自然会导致这些数据中心中的英伟达 GPU 数量减少。

谷歌下代 TPU 性能暴增 16 倍

近日,谷歌详细披露第七代 TPU 架构「Ironwood」超级计算平台,主要聚焦在单个 Superpod 的硬件构成与架构设计。

据介绍,单个 Ironwood Superpod 集成 9216 枚芯片,每片配备 192GB、带宽 7.4TB/s 的高带宽存储,峰值算力高达 4614TFLOPs。相较之下,2022 年发布的 TPU v4 集成 4096 枚芯片、配备 32GB HBM,峰值算力 275 TFLOPs,而 2023 年发布的 TPU v5p 集成 8960 枚芯片,配备 95GB HBM,峰值算力 459 TFLOPs,这意味着 Ironwood Superpod 单芯片性能较 TPU v4 提升超过 16 倍。

在物理布局上,Ironwood 沿用过去三代的 3D Torus(立方环网)拓扑,每个逻辑单元为 4×4×4 节点阵列,即 64 芯片,封装于单个机架。而一个 Superpod 包含 144 个机架,还配备光学交换机机箱以实现跨模块互连,以及用于液冷的冷却分配单元(CBU)机架,互连方面为提高灵活性与可扩展性,采用 PCB 走线、铜缆和光纤的混合方式。

在机架设计上,顶部设有泄漏检测盘以监控液冷系统,下方是供电模块,具备两路电源域,将 416V 交流电经整流转换为直流电。整套系统支持液冷散热,满载运行功率可超过 100kW。

谷歌 TPU 需求正在上升

据报道,谷歌的第六代 Trillium TPU 芯片自去年 12 月向外部客户开放后需求强劲。分析师预计,第七代 Ironwood TPU 的需求将显著上升。谷歌的 TPU 芯片算力最高可达 42.5 exaflops(百亿亿次浮点运算),并已大幅提升高带宽内存容量。这些芯片成本效率也显著提升,这是吸引更多前沿实验室关注的主要原因之一。

初创公司 Anthropic 此前虽在小规模上使用 TPU,但分析师指出,该公司近期正在招聘 TPU 内核工程师,这可能意味着他们正考虑从使用 Amazon Web Services 提供的 Trainium 芯片转向 TPU。Trainium 是亚马逊为 AI 训练设计的芯片,该公司已对 Anthropic 投资 80 亿美元。

分析师还指出,马斯克的 xAI 公司也对购买 TPU 表现出兴趣,部分原因在于今年「JAX-TPU 工具支持的显著改进」。JAX 是谷歌开发的一个高性能计算 Python 库,能够让程序在 TPU 上高效运行。直到最近,JAX 生态系统还限制了 TPU 在 Google 外部大规模部署的可能性。

今年 6 月,OpenAI 启动了一项重要战略调整:将租用谷歌云平台 TPU,为其核心产品 ChatGPT 提供关键运算支持。这是 OpenAI 首次在核心业务场景中规模化引入非英伟达芯片,也标志着打破了英伟达长期以来的垄断地位。


关键词: TPU 谷歌芯片

评论


技术专区

关闭