物联网的下一站是人工智能
2016年7月爆出了举世震惊的软银234亿英镑收购ARM公司事件,软银首席执行官孙正义就此表示,这一收购标志着软银的一次“范式转变”——投资物联网。诚然,ARM作为垄断了智能手机业的芯片设计公司,最近一两年来正积极向物联网拓展。
本文引用地址:https://www.eepw.com.cn/article/201608/295418.htm然而,ARM仅仅提供物联网芯片的设计,即便真如Gartner所预测在2020年将有260亿物联网设备,但这也只是物联网的物理基础。如何对这260亿物联设备7×24源源不断产生出来的数据进行分析、判断和商业变现,单靠人工则远远不能满足这一需求,而必须依靠自动化的算法,这就是Gartner所积极倡导的算法经济。
人工智能将成主流商业竞争策略
为什么说人工智能将成主流商业竞争策略?这是因为在算法经济时代,人工智能是终极算法,对终极算法的追求必将成为主流商业竞争策略。
在华盛顿大学教授Pedro Domingos的2015年新书《终极算法》中,有这样论断:“终极算法”就是通过机器学习的方式,自动发现和创造其它所有算法的“主算法”。这个所谓的“主算法”是单一的、全球通用的算法,这个“主算法”对于生物界来说是人类大脑,对于以物联网为基础的机器世界来说就是人工智能。
在过去60年间,全球最顶尖的科学家们一直在研究如何用数学的方式来模拟人类的智能。早期可证明《数学原理》的“逻辑理论家”程序让机器具备逻辑推理能力,中期的专家系统让机器能获得人类的知识,再到后来旨在让机器自主学习知识的机器学习算法,科学家们对人工智能的探索一直没有停止。
进入到2016年,也是人工智能学科诞生60周年之际,基于深度学习的机器学习算法成为人工智能主流,而深度学习的核心就是多层深度神经元网络DNN,这也是目前主流科学家能达到的最为成熟的机器智能。
2016年7月21日,技术解决方案提供商SoftServe发布了Big Data Snapshot 研究报告,研究显示 62% 的大中型公司希望在未来的两年内能将机器学习用于商业分析。这意味着商用多层深度神经元网络DNN,即将成为各大企业追逐的主流商业竞争策略。
硬件进步推动人工智能商用
我们正在进入人工智能的商用时代。经过60年的发展,基于DNN的人工智能已经从高校和实验室走进了企业,并从企业扩散向千家万户。谷歌今年刚发布的智能硬件Google Home、即将量产的阿里互联网汽车、微软人工智能助理Cortana等,都是基于DNN的规模化商业应用。
在更为广泛的传统企业应用层面,一场大规模的人工智能商用化正在开始,这是基于硬件的进步,其中一个显著的进步是GPU在人工智能商用中的崛起。《连线》杂志在2015年底发表了一篇名为《与Google竞争,Facebook开源了人工智能硬件》文章中谈及GPU在人工智能商用时代的崛起。现在,Facebook、Google、微软、百度等大型互联网公司正在转向利用GPU完成人工智能商业应用。
在过去,算法模型依靠CPU计算得出,但人工智能算法的独特性在于分布式并行计算,这并非基于串行计算的CPU所擅长。实际上针对图形图像处理的GPU从一开始就是大规模并行计算,这也是为什么斯坦福大学的吴恩达教授会考虑采用GPU优化人工智能算法的初衷。研究表明,12 颗 NVIDIA GPU 可以提供相当于2,000 颗 CPU 的深度学习性能。
尽管从长期来看,开发真正的人工智能芯片依然是全球学界与企业界共同需要完成的任务,但那仍需要很长时间的探索与实验。从当前人工智能商业化需求来看,把GPU用于人工智能商用显然具有极大的优势。这就是2016年4月,NVIDIA推出基于GPU的全球首款深度学习超级计算机DGX-1的原因。
首款GPU深度学习超级计算机
首款GPU深度学习超级计算机NVIDIA DGX-1基于 NVIDIA Tesla P100 GPU,该 GPU 采用2016年最新的 NVIDIA Pascal GPU 架构。Pascal是第五代GPU架构,于两年前的GPU技术大会(GTC)上公布,产品将于2016年上市,这就是Tesla P100 GPU。
作为新一代GPU架构,Pascal相比于前一代的Maxwell有较大的性能提升。根据NIVIDIA的数据,Pascal GPU 在训练深度神经网络的性能方面有1个数量级的提高。2015年GTC大会上,用4颗Maxwelll GPU训练Alexnet深度神经网络需要25小时,到了2016年GTC大会上用8颗Pascal GPU则只用2小时;对比英特尔双路至强E5服务器训练Alexnet网络需要150个小时,而DGX-1只需要2个小时。
评论