新闻中心

EEPW首页 > 消费电子 > 业界动态 > 微软CEO谈人工智能、算法责任以及Tay黑化的教训

微软CEO谈人工智能、算法责任以及Tay黑化的教训

作者:时间:2016-11-08来源:网络收藏

  在纳德拉设想的未来中,聊天机器人将大行其道。

本文引用地址:http://www.eepw.com.cn/article/201611/339839.htm

  正迅速转型,自我定位为的领导者。

  周一(9月26日),该公司首席执行官萨蒂亚·纳德拉(Satya Nadella)站在舞台上发表了年内关于(AI)的第二场主题演讲。

  从云计算服务到Microsoft Word,他重申了要在旗下各项业务中注入某种技术的承诺。

  在纳德拉走下舞台之后,笔者获得了这次采访机会,他向我们介绍了在开发人工智能助手方面的进展情况。

  今年早些时候,你开始谈到我们需要打造透明的AI、道德的AI以及负责任的AI。自那以后你都做了哪些工作,具体是什么?

  纳德拉:我想,我做的第一件事情,甚至于在微软的内部,就是提出原则以及唤起开发者的意识,正如我们对用户界面所做的那样。

  我们打造的机器智能是在帮助人类吗,是在增强人类吗?

  微软开发的所有AI产品,在我第一次拿到手时,首先都会问:

  它增强了什么?

  做了哪些赋权?

  用了哪些我们可以在算法上负起责任的训练方法?

  这些都是可以具体落实的要求。不过,我并不想简单地把这些要求当成某种业绩指标类的东西。

  落实这些要求,关键在于设计上的敏感性,在于我们的开发人员、我们的设计师以及我们的产品选择。

  一家公司想要提供优秀的用户体验,都要提到设计原则,那么对于优秀的人工智能,它的设计原则是什么呢?

  这个问题,极大地吸引我去思考:

  当你在训练一个深度神经网络时,负起算法责任(algorithmic accountability)意味着什么?

  当你们在做图像识别那样的技术时,开发者依赖于你们的服务,如果某个地方出了错,那可能在他们那里造成不良影响。对于客户和最终用户,你们是否有必要提供一种开放性?

  纳德拉:我们无法知道所有的用例。

  人们将会使用这些认知性API,不管是图像识别还是语音识别,那取决于他们正在做的事情。

  我们不会成为“检查员”或者编辑。

  就以图像识别为例。

  如果我们的图像识别API本身就存在一些偏见——那可能是因为缺乏数据,或者是特征选择出了问题,又或者是我们构建的卷积神经网络偏离了设计——我完全认为,我们必须负起责任,就像我们为那些软件漏洞担负责任一样。

  因为,说到底,虽然我们谈论着人工智能,但人工智能赖以工作的参数最终还是由人类工程师定义的。

  并不是说我们想要所有事情时时刻刻都做到完美,但如果有人发现某个地方存在错误,那么我们就会对它进行重新训练。

  再来谈谈聊天机器人,我们可以让一个聊天机器人大体上理解用户在说什么,但语言生成仍然是一个很大的研究课题。我们如何才能让聊天机器人说的话听上去更智能呢?

  纳德拉:这个问题可以分为多个层次。

  教导计算机学会人类语言是我们的终极任务之一。

  因此,对我来说,事情要一步一步地来做。在AI学会自由运用人类语言之前,首先要让它理解你来我往的对话。

  只不过,实现语言生成是一个通用人工智能(AGI)问题;它并不是一个应用人工智能问题。

  你必须掌握一种通用人工智能和通用学习模型,它要能充分理解人类知识和词汇中一切事物的语义。

  只要是会遇到歧义和错误,就需要思考如何让人类介入进来,以及如何升格到由人来做出选择。在我看来,这就是人工智能产品最讲究的地方。

  如果有一定比例会出现歧义和错误,那你就必须要有处理异常情况的能力。

  可是这首先要能够检测出那个异常来。

  幸运的是,在人工智能中,你拥有信心和概率分布的支持。

  所以,你必须利用所有这一切让人类介入进来。

  就拿客户支持来说,我们不认为虚拟助理能够回答所有问题。

  这种事可能需要升格到让人类客服代表进行处理,这时候聊天机器人就从主角变成了配角。

  客服代表回答问题,然后虚拟助理藉由强化学习从中汲取经验教训。

  所以,那样的过程将会帮助我们做得越来越好。

  但是,要做到这一点,我们需要在通用学习技术上取得突破性进展。

  当人们都在努力争取实现这些突破时,你如何保持对聊天机器人这种技术的兴趣?你怎样屏蔽掉舆论炒作带来的干扰?”

  纳德拉:这就是所谓的产品选择,它是一点点的艺术,加一点点的设计,再加上一大堆的人工智能能力,但这就是我们学到的东西。

  我的意思是,即便是通过微软小娜(Cortana),我们也解决了很多难题,并且意识到很多人喜欢听小娜讲笑话。

  于是我们想:“哇哦,那很酷,让我们为用户做出这项功能吧。”

  这不仅仅在于技术,而是我们必须找到技术与设计之间的那个能够让它们共同发展的黄金回路。

  你是否认为存在一种让所有业务都拥有聊天机器人的设计?它是否适用于每一项业务?

  纳德拉:我想我们会找到答案的。

  我的确认为,有些特定的业务和特定的业务流程,比如买保险,是非常适合聊天机器人的,可以通过设计实现。

  事实上,监管要求是这样的,当你购买保险时,使用聊天机器人的效果要比自己通过移动应用或网站摸索好得多。所以,那至少可以算作一个用例。

  我们正从这些开发者身上学到很多东西。

  什么时候保护人工智能免受攻击或反向工程变成了一个问题?

  纳德拉:如今这已经是一个问题。

  我从(聊天机器人)Tay身上得到的最大收获之一就是,你需要打造出能够抵御恶意攻击的人工智能。

 

  观察Twitter上发生的事情,那很有趣,但举例来说,我们在中国没有遇到同样的事情。

  聊天机器人在中国进行的社交对话是不同的,如果你把它置于美国的语料库当中,结果就不一样了。

  当然,Tay还遇到了集中攻击。

  就像如今开发软件要能经受住DDOS攻击,你也要能够经受住语料库攻击——这种攻击试图污染语料库,对AI进行误导,从而让AI学习模型选中错误的东西。

  我们正想方设法应对这些挑战。

  我们(开发Tay)是作为一个学习模型的原型产品。

  如今,考虑到现有的媒体新闻周期,原型和正式发布的版本之间已经区别不大。

  当然,这是有意为之;如果你以一种公开的方式做这件事,毋庸置疑大家都能看到。在某些层面上,结果令人震惊。

  但与此同时,我们并没有说自己想要推出某个完美无缺的东西。

  它不像Windows 10的发布,它属于那种研究项目,而不是用来赚钱的产品。

  而且,尽管有那种种“反应”,它确实帮到了我们,也起到了很好的号召作用,让我们更好地为自己所谈论的设计原则打好基础,负起更大的算法责任,思考质量保证意味着什么?以及思考你是基于公开语料库发布产品,还是先发布到一个不同的语料库中并进行观察?

  这些都是我们正在学习和改进的技术。



关键词: 微软 人工智能

评论


相关推荐

技术专区

关闭