新闻中心

EEPW首页 > 智能计算 > 专题 > AI芯片能力亟需提高,数据仍是AI核心

AI芯片能力亟需提高,数据仍是AI核心

作者:时间:2018-05-04来源:电子产品世界收藏

者/上海集成电路有限公司GPU架构总设计师 顾德明

本文引用地址:http://www.eepw.com.cn/article/201805/379457.htm

目前,全球技术正面临着一场巨大的变革,智能无处不在的浪潮已然悄然到来!政府先后推出《新一代人工智能发展规划》和《促进新一代人工智能发展三年行动计划(2018-2020年)》,把提高到国家战略层次,建立了相对完整的研发促进机制,协同推进发展。当下,传统行业例如工业控制、医疗影像、零售、汽车、安防等都在思考如何向智能方向转型。

作为核心的处理器技术,其最新发展为设计人员在统一的智能控制模型下实现创新带来了良机。通过在控制层面对性能、功能作详细分析,利用统一的标准处理器内核架构,设计人员不但能够以极具竞争力的价格获得最优解决方案,还可以通过软件复用来降低软件的开发成本,大幅缩短设计周期。

x86作为行业的主流处理器,其架构的优点在于功能强大,而且通用性、兼容性、实用性强,应用范围广。传统应用领域可以在不影响其核心业务的情况下,采用x86+AI加速器的方式获得智能方向的新探索,从而让应用快速落地。

除此之外,与深鉴科技、寒武纪科技等国内AI创业公司在细分行业领域的垂直深耕不同,还注重于解决AI服务端的训练和推理的芯片问题。这个领域难度高,挑战大,对于国家安全和国内AI产业未来的可持续性发展具有深远的意义。

现阶段,服务端的AI芯片仍被国外完全垄断,以NVIDIA为首的GPU AI目前占有绝对的领先地位。Amazon、Google、Microsoft等国外公司也为自己的云服务平台开发了专属的ASIC芯片(虽然并不能像NVIDIA兼容庞大的生态,但是具有不错的能耗比)。

好的服务端芯片,不仅要兼容各类AI框架软件生态,还需要硬件拥有高能效比、可虚拟化等诸多特点。

研制的基于GPU框架的可编程AI芯片能很好地满足服务端的需求,不仅可以兼容NVIDIA创造的生态环境,做到即插即用,其独有的压缩技术和AI加速器还能让芯片具有传统GPU无法达到的高能效比。

目前AI技术仍处于起步阶段,监督学习仍是主要的手段。AI的主流分支--深度学习技术也将随着计算力的不断提升,创造出更加智能的落地应用。

在兆芯看来,短期内,AI的发展趋势有如下特点:

1. 网络的复杂度和训练集的规模将会进一步提高,计算复杂度将达到一个新的高度。

2. 带label的数据将成为AI发展阶段最有价值的资源。

3. 传统的AI是在设计好的网络结构下训练未知参数,而最新的方法利用GAN类似的机制,可以将网络训练成一个更高精度的全新网络框架,而不需要设计者参与。这对于做框架算法的人也带来了巨大的挑战--他们该如何在这个重数据的AI时代突破重围,将AI带到更高的台阶。

4. CNN等网络的安全性问题,例如pixel攻击(通过干扰让目标识别错误,或者认定为指定目标),这也对现有的应用安全落地带来了极大的挑战。因为在某些应用中安全性是致命的决定因素,如自动驾驶。

5. 另外新兴的网络如capsule是否有机会替代现有CNN网络,这些对于不能软件编程的AI芯片来说也许是致命的。

AI芯片设计面临速度、安全及兼容的挑战

这些动向对兆芯的处理器设计和AI芯片设计都提出了一系列的挑战。

处理器技术决定互联、智慧与传统制造业的融合度,从而带动产业链上下游企业竞相入局。AI对处理器设计提出了更高的要求。如边缘计算,AI设备需要高度集成,低功耗的专用解决方案,因此可以选择将专用AI模块集成到SoC内部,并对SoC访存系统进行优化,满足AI模块的高带宽需求,同时可以通过内置硬件编解码器,提升视频的处理性能。在云端计算层面,可以选择支持多PCI-E 3.0接口,连接GPU或AI加速卡,构建AI运算平台。传统行业设计人员可以复用部分原始软件代码,将智能功能调用AI完成,从而降低软件的开发成本,并大幅缩短新产品设计周期。

而在AI芯片设计方面,具体挑战如下:

1. 网络复杂度提高,意味着需要更高的计算能力。如何在现有的工艺限定下,最大限度地提高有效计算力(有效计算力,指的是实际的处理速度,而不是物理上的计算单元数目)。这就要求大家能够最大限度地解决带宽、芯片互联、功耗、同步等问题,这些是决定芯片效率的关键因素。

2. 由深度学习产生的非规则的网络结构,虽然效果好,但是复杂的连接关系会令传统ASIC AI芯片更加难以优化加速。

3. 安全性问题是AI最为敏感话题,也是新的网络结构的需求,或者说下一代的AI网络结构需要解决的问题。

4. 新兴网络,如capsule,虽然解决了CNN网络诸多问题,也引出了与现有硬件不太适应的问题。如何提好训练效率,如何设计硬件让其在可编程性和高效之间达到一个平衡点,来满足不断演进的算法需求,是芯片设计商的设计原则。

x86+外接AI PCIe加速卡及AI计算芯片

兆芯是国内仅有的同时掌握中央处理器(CPU)、图形处理器(GPU)、芯片组(Chipset)三大核心技术的公司,拥有三大核心芯片及相关IP的完全自主设计研发能力,全部研发环节透明可控。因此,我们可以利用自身优势,针对AI应用需求,优化产品设计,为客户提供高效、高性能、低功耗的解决方案。

目前,兆芯产品已经广泛应用于台式机、笔记本、一体机、存储服务器、磁盘阵列、工控整机等多种形态产品,是国内唯一具备无缝替代国外同类产品条件的国产自主可控通用CPU。

面对AI需求的迅速崛起,我们正在思考如何对这些产品形态进行智能升级,通过x86+外接AI PCIe加速卡的方式构建运算平台加速应用落地。

与此同时,兆芯已经利用自己GPU技术的独特优势,设计了全新的AI计算芯片:

1. 基于兆芯GPU的AI硬件加速框架很好的解决了:

²多计算单元的并行性管理和可扩展性问题

²软件生态的兼容性问题,支持OpenCL,CUDA等GPGPU API

2. 独有专用加速器在能效比和可编程性之间做了很好的折中

3. 新型压缩技术大幅降低了芯片的带宽需求,从而有效的提高了计算单元和加速器利用率

4. 支持硬件虚拟化

5. 灵活的GPGPU编程,可以适应多样算法变革,全新同步机制可以高效完成多局部和多芯片同步,较好的适应新兴的网络结构

6. 在解决安全的方向上,如视觉攻击,兆芯利用自主设计的视觉芯片和深度学习相结合的方式大幅度降低了攻击成功的概率

总之,对于AI来讲,目前仍处于一个开始的阶段,数据仍是整个AI的核心,硬件和软件架构都在不断的相互变化中,每一次硬件变革都会带来软件变化,软件变化,工艺变化又会促进硬件的进一步改良。对于兆芯来讲,我们一方面会不断演进加速器设计,让其更好的加速主流算法,同时会保留足够通用编程灵活性,给新的算法创造好的并行计算环境,也为国内AI高端芯片自主可控发展贡献力量。



关键词: 兆芯 AI X86

评论


相关推荐

技术专区

关闭