新闻中心

EEPW首页 > 智能计算 > 业界动态 > 人工智能发展面临的法律挑战

人工智能发展面临的法律挑战

作者:时间:2017-04-19来源:人工智能收藏

  观察一个概念是不是在公众视野中“红了”,有一个判断标准,就是看看在各大机场的书店里有多少本关于这个主题的畅销书。以这个标准来看,现在无疑“红的发紫”,也还会继续红下去。

本文引用地址:http://www.eepw.com.cn/article/201704/346769.htm

  然而,科技领域的每一个新概念,从产生到具体在各行业中落地,都需要面对很多挑战,既有技术和商业层面的,也有法律和公共政策层面的。

  在过去的一年之间,的发展已经引起了很多国家、国际组织的重视,联合国、美国、欧洲议会、英国、法国、电气和电子工程师协会(IEEE)先后发布多份关于的报告,讨论人工智能的影响和需要考虑的风险。这其中也包含了对于法律问题的讨论。

  笔者作为多家科技公司的顾问,也在业务实践中遇到了很多和人工智能技术应用相关的法律问题,本文会结合实例讨论人工智能发展在法律问题上可能会遇到哪些挑战。

  数据的收集、使用和安全

  尽管人工智能从法律上很难准确定义,但从技术上来说,目前人工智能基本都会涉及机器学习技术(MachineLearning),这意味着需要收集、分析和使用大量数据,其中很多信息由于具有身份的识别性(包括结合其他信息识别身份),属于个人信息。按照个人信息保护方面的法律规定,这些行为应当取得用户明确、充分且完备的授权,并应当明确告知用户收集信息的目的、方式手段、内容、留存时限还有使用的范围等。

  早在2011年,Facebook就曾因其人脸识别和标记功能未按伊利诺伊州《生物信息隐私法案》(BIPA)要求告知用户收集面部识别信息的期限和方式被诉,随后又因采集面部特征前未能明确提醒用户并征得用户同意而遭到爱尔兰和德国有关部门的调查。尽管Facebook辩称默认开启该功能是因为用户通常不会拒绝进行人脸识别,并且用户有权随时取消这一功能,但德国汉堡市数据保护与信息安全局坚持Facebook的面部识别技术违反了欧洲和德国的数据保护法,Facebook应删除相关数据。最终,Facebook被迫在欧洲地区关闭了人脸识别功能,并删除了针对欧洲用户建立的人脸数据库。

  当然也有对企业有利的案例。著名篮球游戏NBA2K提供了使用用户面部识别信息建立角色模型的功能,部分用户以游戏制造者未征得其同意提起集体诉讼,法官认为被告收集信息最多是抽象的违反了BIPA,而没有给原告造成具体而特定的损害,因此原告主体身份不适格,驳回了原告的诉请。

  除了需要按告知的方式和范围使用用户数据,人工智能应用的开发者还可能面临需要配合政府部门提供数据的情况。2016年阿肯色州发生的一起谋杀案中,警方希望获取Alexa语音助手收集的语音数据,该请求遭到了亚马逊公司的拒绝,理由是警方没有出具有效的法律文件。但这种例子以后还会层出不穷。公权和私权的冲突,也许会因为人工智能技术的引入,出现新的形式。

  人工智能开发者在收集、使用数据的过程中,还要遵守安全保障原则,采取适当的、与个人信息遭受损害的可能性和严重性相适应的管理措施和技术手段,保护个人信息安全,防止未经授权的检索、披露及丢失、泄露、损毁和篡改个人信息。

  数据歧视和算法歧视

  人工智能在应用中,往往需要利用数据训练算法。如果输入的数据代表性性不足或存在偏差,训练出的结果将可能将偏差放大并呈现出某种歧视特征。根据国外报道,卡内基?梅隆大学的研究显示,由谷歌(Google)创建的广告定位算法可能存在对互联网用户的性别歧视。在搜索20万美元薪水的行政职位中,假冒男性用户组收到1852个广告,而假冒女性用户组仅收到318个广告。而在2016年3月23日,微软公司的人工智能聊天机器人Tay上线不到24小时,就在一些网友的恶意引导和训练下,发表了各种富有攻击性和歧视性的言论。除此以外,因为数据存在偏差,导致结果涉嫌歧视甚至攻击性的例子,已经大量出现。

  这意味着开发者在人工智能的训练和设计过程中需要秉承广泛的包容性,充分考虑女性、儿童、残疾人、少数族群等易被忽视群体的利益,并对道德和法律的极端情况设置特别的判断规则。

  由于人工智能系统并非表面那么看起来“技术中立”,在毫不知情的情况下,特定人群就可能就成了系统“偏见”和“歧视”的受害者。作为开发者,需要审慎面对这样的风险。除了在采集数据和设计算法的时候需要注意数据的全面性和准确性以及算法的不断调整更新外,在应用机器的预测结果是也应该更为谨慎,在重要领域不能将人工智能的运算结果当然作为最终且唯一的决策依据,关键的人为审查依然是必要的。例如在关于人工智能医疗辅助诊断的规定中,就明确了人工智能辅助诊断技术不能作为临床最终诊断,仅作为临床辅助诊断和参考,最终诊断必须由有资质的临床医师确定。

  如果人工智能的歧视行为给用户造成了实际或精神损害,相关的法律责任应当首先由人工智能服务的最终使用者承担,人工智能开发者有过错的,最终使用者承担责任后可以向开发者追偿。在判断开发者过错程度时,可能需要区分不同算法:如果技术开发者主动设立了算法中的规则,那么对最终出现的歧视风险预见和控制程度也更高,如果最终因系统的“歧视”或者“偏见”损害了第三方的合法权益,难辞其咎。但如果采取的深度学习等算法,由系统自身探索并形成规则,所以开发者对歧视风险的控制程度是比较低的,主观恶意和过错都较小,可能具有一定的免责空间。

  事故责任和产品责任

  和其他技术一样,人工智能产品也有事故和产品责任的问题,但要分清是人为操作不当还是人工智能的缺陷并没有那么容易,举证上尤其困难。汽车的自动驾驶功能在国内外都曾因发生交通事故而被质疑其安全性。然而,并非只要安装了人工智能,用户使用产品受到的损害就都属于人工智能的责任。笔者收集和接触了不少和人工智能产品有关的纠纷,但其中有相当的比例,都不能证明开启了人工智能的相关功能。

  在确定事故属于人工智能责任前需要明确排查以下问题:是否有人为操作等其他原因造成损害后果的发生?人工智能的具体功能是什么?损害发生时相关功能是否已经启用?相关功能是否发挥了预期作用?相关功能与损害后果之间是否存在因果关系?因果关系的相关程度如何?产品功能描述和介绍中是否存在可能造成用户降低注意水平的歧义或误解?

  根据《侵权责任法》的规定,因终端产品存在缺陷造成用户损害的,终端产品生产者应当承担侵权责任。如果终端产品使用的人工智能存在缺陷,而终端产品使用的人工智能芯片和服务(人工智能产品)是由他人提供的,则终端产品生产者可以以销售者的身份,要求人工智能产品和服务的开发者作为产品生产者承担侵权责任。同时,双方也可以自行约定侵权责任的划分问题。

  在认定产品缺陷责任时一个比较棘手的问题是,各生产者之间的责任认定问题。因使用人工智能的终端产品可能涉及多类技术和部件,当该产品最终发生意外时,往往难以精准定位问题出现的具体环节和部位。因此,建议人工智能开发者通过黑匣子等技术手段加强对操作数据的记录和保存,以便产生正义时履行举证义务。


上一页 1 2 下一页

关键词: 人工智能

评论


相关推荐

技术专区

关闭