新闻中心

EEPW首页 > 智能计算 > 业界动态 > NPU诞生七年后,智能手机端侧AI应用迎来曙光

NPU诞生七年后,智能手机端侧AI应用迎来曙光

作者:时间:2020-10-12来源:三易生活收藏

2013年10月15日,高通旗下专门负责技术创新的团队公布了一款新设计的处理器“Zeroth”。但它的结构完全不同于当时大家熟悉的骁龙系列芯片,而是更接近于用电路对生物神经细胞进行模拟,从而在消费类电子设备上实现近似生物神经网络的智能感知与判断操作。

本文引用地址:http://www.eepw.com.cn/article/202010/419104.htm

没错,诞生于7年前的Zeroth,才是移动处理器领域的首款NPU。事实上,NPU(Neural Processing Unit,神经网络处理器)这个词,也正是在高通在Zeroth发布时最早被提出来的。

但问题就在于,从2013年到2020年整整七年的时间过去了。现在当我们审视智能手机上的“智能”特性时会发现,绝大多数机型依然还只是将AI算法限定在了拍照、语音助手,以及应用预启动等极少数的使用场景中。更不要说,真正能够利用到如今各大主流智能手机硬件平台理论上极其强大算力的第三方“AI APP”,更是几乎极为少见。

为什么手机AI的口号都叫了这么多年,但实际上真正能够明显让用户体验到手机AI计算能力的APP却极为鲜见?针对这个问题,我们三易生活此前曾经进行过探究。简单来说,第三方AI APP的缺位,一方面是源于如今智能手机芯片平台的“碎片化”,由于不同品牌,不同型号,甚至对应不同系统版本的AI加速相关驱动都不一样,因此对于真正有心要做“AI APP”的开发者来说,这个适配难度,可能远比游戏还要更加复杂。

而另一方面来说,当前手机AI的实现方式基本上可以分为云端联网计算和设备端本地计算两种。前者不需要针对硬件进行适配,而且还能利用用户数据当做自身AI训练的“食粮”;而后者既要进行复杂的适配编程,并且因为不能从用户处获得数据,实际上对于企业而言还比较“不划算”,因此没人愿意做也就并不奇怪了。

然而就在近日,情况发生了一点变化。先是苹果在他们前不久刚刚推出的iOS 14中,引入了包括输入法在隐私敏感应用中会自动切换为断网语音识别,翻译APP提供不联网的设备端模式等,一系列“设备端智能”功能。并且在新系统的相关宣传中,苹果方面还打出了用本地AI运算替代云计算,从而保护用户隐私的口号,从某种程度上也直接点破了当前智能手机上“云+AI”模式的最大软肋。

紧接着没过一个月的时间,作为Android阵营领导者的谷歌,也选择了从善如流。就在日前,他们发布了一款名为“Live Transcribe”的APP,给许多支持本地AI运算能力的Android机型带来了新的智能功能。

“Live Transcribe”能做什么?简单来说,它与iOS 14自带的“声音感知”功能十分相似,都是用手机的麦克风侦测周围环境里的异常声响,并通过手机处理器的本地AI计算能力对声音进行筛选和识别。一旦周围环境中出现警报声、呼救声、电话铃音、犬吠声,或者婴儿哭声等需要注意的特殊声响时,手机就会通过振动、点亮闪光灯、弹出文字提示等方式给用户更容易注意到的提示。这不仅会给听障人士带来极大的便利,同时哪怕对于其他用户来说,这类特殊声响的提示功能也将能够降低日常生活中不少意外情况的发生概率。

但是与iOS 14将“设备端智能”深植于系统中不同,谷歌这次是以独立APP的方式来给Android机型添加环境音分析和识别功能。这也就意味着,“Live Transcribe”实际上很可能成为了有史以来第一款,能够较为普遍适配当今智能手机AI加速体系的第三方设备端AI APP。

这意味着什么?表面上来看,这证明要开发一款能够广泛兼容不同系统版本、不同硬件平台的、不需要云计算辅助的手机端侧AI APP,绝非“不可能完成的任务”。但更进一步地来看,正如谷歌AI相机引领了业界算法进步的潮流一样,如今当他们端出可能是Android生态首个第三方端侧APP的时候,它所带来的意义,自然也绝非只是给一部分机型增加一点新功能这么简单了。



关键词:

评论


相关推荐

技术专区

关闭