新闻中心

EEPW首页 > 业界动态 > 谷歌定制机器学习芯片强悍:比GPU加CPU至少快15倍

谷歌定制机器学习芯片强悍:比GPU加CPU至少快15倍

作者:时间:2017-04-07来源:新浪科技收藏

  北京时间4月6日消息,开发定制芯片,它可以提高算法的运算速度,这不是什么秘密。管这些处理器叫作Tensor Processing Units(简称TPU),2016年5月,在I/O开发者大会上首次展示了TPU,之后再也没有提供更多细节,谷歌只是说它正在用TPU优化TensorFlow框架。今天,谷歌公布了更多内容。

本文引用地址:http://www.eepw.com.cn/article/201704/346274.htm

  根据谷歌自己制定的基准,TPU执行谷歌常规任务时,速度比标准GPU/CPU组合产品平均快了15倍至30倍。标准GPU/CPU组合产品将英特尔Haswell处理器与Nvidia K80 GPU安装在一起。数据中心极为重视能耗,使用TPU后每瓦特性能(也就是TeraOps/Watt,每万亿次/瓦特)提高了30-80倍。请注意,谷歌提供的数据是在生产过程中使用机器学习模型时获得的,并不是最初创建模型时的数据。

  谷歌还表示,大多数架构师优化芯片是为了提高卷积神经网络的性能,不过卷积神经网络只占了数据中心负载的5%,大部分应用使用的是多层感知器神经网络。

  2006年,谷歌开始研究如何将GPU、FPGA、定制ASICS应用于数据中心。不过当时并没有太多应用因为特殊硬件获益,许多繁重的任务可以用数据中心多余的硬件完成。

  到了2013年情况开始改变,当时谷歌认为DNN将会变得流行起来,数据中心的计算需求将会翻倍,如果用传统CPU计算成本相当高。正因如此,谷歌启动一个项目,用定制ASIC完成推算,采购现在GPU用于训练。谷歌报告称,与GPU相比,将成本效益提高10倍就是它的目标。



关键词: 谷歌 机器学习

评论


相关推荐

技术专区

关闭