Google TPU 成本仅为 OpenAI 五分之一,谁性价比最高?
在生成式 AI 竞争白热化的时代,成本与效率成为企业导入 AI 的核心考量。 Google 近期以自研的 TPU(张量处理单元)强势进军 AI 市场,掀起一场 AI 算力的价格革命,矛头直指目前仍依赖英伟达高价 GPU 的 OpenAI。
本文引用地址:https://www.eepw.com.cn/article/202505/470591.htmGoogle TPU 登场:AI 算力成本压到只剩 OpenAI 的 20%
据报导,相较于 OpenAI 仰赖的英伟达 GPU(如 H100、A100),Google 的 TPU 成本只有其五分之一。在同样或更优的 AI 效能下,能大幅降低算力支出,让企业能以更低成本建构生成式 AI 服务。
目前一张英伟达 H100 芯片成本约 3,000 美元,但市价却高达 2 万至 3.5 万美元;高毛利成为企业导入 AI 的沉重负担。
与此同时,Google 的 TPU 不仅效能媲美英伟达,价格策略更具优势,迅速吸引企业级用户转向。
API 价格比一比:Gemini 2.5 Pro 完胜 OpenAI o3
除了硬件,API 价格也是企业选择 AI 平台时的重要指标。
Google 的 Gemini 2.5 Pro 在价格上远低于 OpenAI 的 o3 模型,不但输入价格便宜 8 倍;输出价格也便宜 4 倍。
这使许多中小型企业得以以较低预算导入生成式 AI,加速内部流程自动化与内容生成应用。
AI 生态系之战:Google 走开放路线,OpenAI 偏重整合
此外,AI 的竞争早已不仅是模型强不强,更是谁的生态系统完整且容易接入,而 Google 和 OpenAI 的策略,宛如两条截然不同的赛道。
Google:采用开放策略,透过 Agent-to-Agent 通讯协议、Agent Development Kit(ADK)与 Agentspace 平台,打造开放式 AI 代理市集,促进多平台 AI 互通。
OpenAI:深度整合微软,与 Azure、Office 365 等服务紧密结合,强调一体化、稳定、快速上手的企业应用体验。
这两种策略代表 AI 即服务(AI-as-a-Service)市场中的两大方向,也让企业需根据需求选择适合的合作伙伴。
模型实力对比:Gemini 稳定处理大资料,o3 强于逻辑推理
若从模型能力观察,Gemini 2.5 Pro 拥有 100 万字元(tokens)上下文容量,极适合处理大量文本资料、长篇内容生成等任务;而虽然 OpenAI o3 模型上下文容量为 20 万字元,但其在逻辑推理、复杂任务处理方面表现卓越。
值得注意的是,根据 OpenAI 自家资料,o3 的幻觉率为前代的两倍,对金融、医疗等高精准领域而言存在风险。而 Google Gemini 则主打的稳定性与预测性,则更符合企业对安全性的期待。
实际应用落地:Google 靠 Cloud 平台推进,OpenAI 主攻 ChatGPT 扩张
导入 AI 的最终目的在于提升业务效率。 Google 透过将 Gemini 整合至 Google Cloud 与 Vertex AI,提供企业快速建置、延伸既有云端架构的能力。像 Wendy's、Wayfair (W-US ) 等大型企业已开始导入。
OpenAI 则主攻全球普及路线,依赖 ChatGPT 与 Microsoft 365 Copilot 迅速渗透企业端与个人市场,月活用户高达 8 亿人次,生态压力不容小觑。
企业 AI 导入选择题:低成本 vs 成熟整合,怎么选?
在面对 AI 快速演进与成本压力下,企业正处于选 Google,还是选 OpenAI 的十字路口:Google 的 TPU 大幅压低算力成本,适合预算有限或初期建置 AI 服务的公司。
然而,OpenAI 在使用体验与整合度上仍具明显优势,特别是在微软 Azure、Office 365 环境下的企业,部署与管理都更加顺手。
去年 8 月,苹果公司发布了一篇研究论文,论文显示苹果公司使用了谷歌开发的 TPU 芯片而非英伟达的 GPU 芯片来训练其人工智能系统「苹果智能」(Apple Intelligence)中的 AI 模型 Apple Foundation Model(简称 AFM)。苹果公布其使用了 2048 片 TPUv5p 芯片来训练拥有 27.3 亿参数的设备端模型 AFM-on-device ,以及 8192 片 TPUv4 芯片来训练其为私有云计算环境量身定制的大型服务器端模型 AFM-server。
苹果放弃英伟达 GPU 转向谷歌 TPU 的战略选择,在科技界投下了一枚震撼弹,英伟达股价应声下跌超 7%,创下近三个月最大跌幅,市值蒸发 1930 亿美元。苹果此次选择依赖谷歌的云基础设施、使用谷歌 TPU 进行其 AI 模型训练,充分反映了科技巨头们在尖端 AI 训练方面开始寻求更多元化的解决方案的趋势。
这一次,苹果虽然在论文中没有明确表示其完全没有使用英伟达 GPU,但苹果在描述其训练 AFM 模型所用的 AI 基础设施时详细分享了使用谷歌 TPU 的很多数量、配置及性能细节,而刻意忽略了对英伟达硬件的任何提及,这一细节确实暗示了苹果有意选择了谷歌的技术。
苹果过去一直极少披露自己用于开发目的的硬件选择,再考虑到英伟达 GPU 一直以来的行业领导地位,这一次苹果公开选择从英伟达 GPU 转向拥抱谷歌 TPU 的举措,极大可能会激励其他科技公司探索英伟达 GPU 之外的替代方案,TPU 的强大性能和用于 AI 模型训练时的高能效比,定将吸引大量寻求优化 AI 工作负载的企业。
评论