新闻中心

EEPW首页 > 消费电子 > 业界动态 > IBM和NVIDIA新款人工智能服务器又把英特尔秒了

IBM和NVIDIA新款人工智能服务器又把英特尔秒了

作者: 时间:2016-09-12 来源:雷锋网 收藏
编者按:在传统服务器芯片市场,英特尔是个巨无霸,无论是IBM Power还是ARM阵营,所占有的份额都微乎其微。但战线转移到人工智能领域,IBM似乎更有优势。

  另外,Tesla P100的半精度浮点运算性能达到了每秒21万亿次 —— 比插入现代PCI-E插槽的GPU高出大约14%,这样的处理能力对训练深度神经网络的重要性不言而喻。

本文引用地址:https://www.eepw.com.cn/article/201609/296831.htm

  还做了个纵向对比,和老款Power S822LC服务器的Tesla K80 GPU加速器相比,新款服务器的加速能力提升了两倍多。

  预计明年问世的 Power9会延续对CPU+GPU组优化。

  为何是“CPU+GPU”?

  众所周知,在人工智能人工智能和深度学习等计算任务上,CPU早已不堪重任。因此,不少企业纷纷推出人工智能专用芯片概念,例如谷歌的TPU(Tensor Processing Unit);还有业内人士力挺FPGA更适合深度学习的算法,这也是英特尔以高价收购Altera的主要原因。

  不过,上述两个替代CPU的方案都还未成熟,目前大多数企业采用的依然是“CPU+GPU”的组合,或者称为异构服务器。通常来说,在这种异构模式下,应用程序的串行部分在CPU上运行,而GPU作为协处理器,主要负责计算任务繁重的部分。

  因为和CPU相比,GPU的优势非常明显:

  1.CPU主要为串行指令而优化,而GPU则是为大规模的并行运算而优化。所以,后者在大规模并行运算的速度更快;

  2.同等面积下,GPU上拥有更多的运算单元(整数、浮点的乘加单元,特殊运算单元等等);

  3.一般情况下,GPU拥有更大带宽的 Memory,因此在大吞吐量的应用中也会有很好的性能。

  4.GPU对能源的需求远远低于CPU。

  当然,这并不代表人工智能服务器对CPU没有需求,CPU依然是计算任务不可或缺的一部分,在深度学习算法处理任务中还需要高性能的CPU来执行指令并且和GPU进行数据传输,同时发挥CPU的通用性和GPU的复杂任务处理能力,才能达到最好的效果,通俗点说就是实现CPU和GPU的协同计算。

  虽然和Intel等芯片商正在为GPU和CPU孰强孰弱陷入了口水战,但实际上这些企业已经开始在异构计算上加大了研发力度,至少在近期内,CPU和GPU的结合将继续成为人工智能领域最有效的方案。


上一页 1 2 下一页

关键词: IBM NVIDIA

评论


相关推荐

技术专区