博客专栏

EEPW首页 > 博客 > 何为“AI伦理”?又何为“AI治理”?科技向善,何为“善”,如何“向”?

何为“AI伦理”?又何为“AI治理”?科技向善,何为“善”,如何“向”?

发布人:MSRAsia 时间:2021-06-16 来源:工程师 发布文章

编者按:人工智能(AI)技术的发展正在重塑当今社会生产方式与产业结构。AI 在提升生产效率、赋能产业的同时,也为社会带来了全新的挑战。自动驾驶汽车交通事故的防范与归责、新冠疫情下个人隐私的保护、人工智能技术的应用对就业的影响、技术是否会引起贫富差距扩大等,均成为公共讨论的议题。

如何应对 AI 可能对社会产生的负面影响?AI 伦理与治理的讨论应此而生。“如何避免大数据时代下个人隐私形同虚设?”“代码是否具有道德?”“人工智能时代的道德代码如何编写?”

微软全球资深副总裁,微软亚太研发集团主席,微软亚洲研究院院长洪小文受邀参加未来论坛 AI 伦理与治理系列活动,在“AI 向善的理论与实践”主题论坛中发表了看法。

洪小文认为“技术都是死的,我们才是制造者与使用者。所谓的 AI 道德,最后反映的是我们的道德,是我们的价值观。”

以下是论坛全文,转载自未来科学论坛公众号。

议题一:人工智能将会对人类社会带来哪些挑战?近些年 AI 的发展,已经产生了哪些问题?社会应该如何应对?

1.技术导致的不良后果其实源于人类自身;

2.微软人工智能设计原则:合法与主权、负责、透明、公平、可靠与安全、隐私与保障、包容。

洪小文:怎么样让技术促进经济发展?怎么样让技术促进社会进步?在大多数情况下,技术都是好的,而在技术被广泛应用后,也产生一些大家所担心的负面隐忧,英文叫“Techlash”。

这里举一些例子。首先,每个国家的经济发展程度不同,如果有些人可以使用到最新的技术,而有些人不能,这就可能带来发展的不均衡和落差,带宽、网络的就是这样的例子;另外,关于安全、隐私的问题大家也谈的很多。比如社交媒体中出现假新闻,如果不小心误传误信,就会影响决定;还有数据和技术偏见的问题。有数据就一定会有偏见,因为体量再大的数据也不可能涵盖所有方面;再有就是关于 AI 在武器上的使用以及技术取代人类工作的问题等等。我认为水能载舟,亦能覆舟,不能说技术无辜,但是真正的问题还是在于技术背后的创造者,在于怎么使用技术,因此技术导致的不良后果其实源于人类自身。制造者、用户、政府、受影响者都是重要的相关方。

微软1998年提出了人工智能的相关原则(“Responsible AI”),要求以负责任的方式设计人工智能。其中,最基本的原则就是合法与主权。对数据及人工智能治理而言,今天很多规则性的内容都会变成将来的法律规范。微软作为一家跨国公司,在任何国家或地区经营都要保证合法性、尊重其主权。第二是负责,任何技术和产品都有其设计制造者,要对技术和产品的部署和运营承担责任,包括法律以及社会等各方面的责任。第三是透明,设计制造者要能够解释程序如何设计,尤其是数据的收集,更需要透明化。比如当摄像头被安置在公共场所搜集数据的时候,需要提前告知数据被收集对象,进入数据收集区域其头像信息可能会被采集。第四是包容,做任何东西都需要考虑到所有的人,也要求我们创造的技术能够服务每个人,包括少数族群,残障人士,所以开发这些人工智能技术的时候需要考虑如何保证它的包容性。第五是隐私与保障,有些人利用互联网或者 AI 在网络上做一些不道德的事,比如说“黑客”、“钓鱼”,对于系统或平台而言,很重要的时要保障用户不受网络骚扰、身份信息不被窃取,以及避免产生一些实质性的灾难;第六是可靠和安全,任何 AI 系统都不可能万无一失。例如一个 GPS 系统,即使只要有万分之一的机会把司机引到悬崖,那也是不安全的。所以怎样做到安全可靠在 AI 领域中非常重要。机器学习都会存在一定误差。问题在于,存在误差的时候如何预防风险,如何提供更进一层的安全保障。第七是公平,坦言之很难做到,因为没有绝对的公平。在现实条件下存在很多偏差或偏见,这些偏见或偏差可能来自数据,可能来自我们的固有认知,可能属于一种社会偏见,毫无疑问,每个人都存在偏见,问题在于怎样不把偏见带到我们所制造的东西里、怎么样避免这些偏见。

最后,技术都是死的,我们才是制造者与使用者。所谓的 AI 道德,最后反映的是我们的道德,是我们的价值观。对于科技工作者而言,需要把正确的价值观与道德纳入技术语言中进行表达,但即使这样还不够,还需要跨领域的合作,需要法学家、社会学家、人类学家等都参与进来,才有可能把这个做得尽量完善。

郭锐:谢谢洪老师。我有两点思考,一是这个规制框架是否可以拓展,我认为它现在可以用于专用人工智能领域,在未来向通用人工智能行进的过程中,这样的框架是否可以继续适用,还是我们需要一些新的道德准则?道德准则是否可以内化在算法之中?洪老师讲到的公平性问题,与此密切相关。二是洪老师提到一个关键词——信任,社会对技术的信任至关重要,中国在过去20年特别是近10年来在人工智能领域的发展,很大程度上借力于社会对于技术的拥抱和信任。我记得薛澜老师讲到过信任的重要性,下面有请薛澜老师,对这个问题给出点评。

1.AI 改变了人类与技术的关系;

2.信任问题。

薛澜:关于刚才谈到信任的问题,第一,从某种意义上讲,很多传统技术是相对被动的,所以人类的应用行为显得比较主动。但是我觉得人工智能技术的不同之处在于,好像它不完全听从我们,因为人工智能还具有智能性,因此我们与技术的关系好像发生了改变。如此一来,我们有时候的确担心它会不会错误决策导致不利的后果。我们对传统技术占据主动权,清楚知道这些技术能做什么、不能做什么,但是使用人工智能技术进行人机交互时,有时候感觉不一定敢那么自信。

第二,我觉得对技术开发的公司而言,信任问题需要被重视,特别是隐私问题。正如刚才大家所说,鉴于人工智能技术在应用过程中搜集了大量数据,如果我们百分之百地信任这些公司,比如说用户知道技术公司只是把数据作为一个机器学习的原料,那对于它们收集数据的行为,我不会太担心。但是,现实中有些技术公司或其中的部分员工存在不道德地利用信息的可能,比如把个人或非个人数据汇集在一起得到更多的信息,或者把这些数据打包在网上拍卖,这些行为我们都看到过。所以从用户角度来讲,我们就希望非常清楚地知道智能公司的开发系统如何运行,对我们数据的处置是否合理。

郭锐:谢谢薛老师的点评。人工智能技术和其他技术相比,能够更加直接地作用于普通用户。比方说,如果能源的相关技术改进了,我们就会看到日用品的价格下降,或者用电的价格下降,但人工智能技术好像可以直接对我们产生影响。在数据领域中,如果我们意欲使用某个技术,可能需要技术的部署应用企业收集我们的信息,但同时我们又担心所收集的信息是否会被误用。刚才华夏老师也提到了一个很重要的问题——隐私问题,从您的角度来看,我们怎么应对人工智能技术对社会的影响?

1.隐私问题:数据归属于谁,如何保护用户隐私?从两个层面加以分析:一是提高透明度,二是企业自律。

2.安全问题:需要多方共同参与法律法规的制定与完善。

夏华夏:我觉得洪老师的架构图总结得非常好,尤其是把法律法规放在底下兜底,上面包括隐私、公平这几个问题,内容全面、层次分明。说到数据隐私的问题,现在很多企业都掌握着大量数据,我们也在思考如何合理保护用户隐私,这个问题蛮难的,有时候数据的归属问题并不是那么清楚。

前几天跟龚克老师沟通的时候,他提到当我们去医院拍一个医学影像片时,医学影像的数据到底属于谁,是属于用户吗?医院的确是拍的是用户的片子,但同时如果没有医院、没有工作人员通过仪器加以采集,没有医生为他做各种医学诊断或判断,这就不是一个完整的数据。因此至少有三方跟这个数据有关系,数据的所有权归属问题比较复杂,在此基础上,怎么保护最终端用户的隐私,也是一个蛮有挑战的问题。一方面,刚才洪老师在框图第二层中写的是是透明度,透明化对于隐私来说是一个非常好的解决之道。当科技企业收集用户数据的时候,企业会告诉他该数据在未来可能会有哪些用途,这种告知就是解决隐私问题非常重要的手段。如果技术足够成熟,每次调用用户数据的时候,系统都能自动通知每个用户,这就使用户更加安心和放心。再一个方面,保护数据隐私,可能还要从企业的自律方面做很多工作,企业到底怎么使用、内部数据谁能看到,是一个非常重要的问题。比如在美团为此专门成立人工智能治理委员会,内部制定了很多数据使用的规则和规范,划分了诸多数据的保密级别,高密级的数据只有在极少数的情况下通过专门的程序才可以调用,这样就能够比较好地保护用户的隐私。

此外,整个数据的安全性也是一个很重要的技术要求,AI 系统或者用户数据的数据库不能轻易被黑客攻击进来。当然,兜底还是要靠法律法规。洪老师把法律法规列在底下非常合理,就人工智能治理而言,不管是安全、隐私、公平还是就业,法律法规最终是一个兜底方。最近国家也在非常积极讨论数据保护的相关法律法规,这些法律如果得以应用,对于企业是约束,对用户是更放心的事情。未来隐私会是一个需要大家共同参与才能解决的系统化问题,法律法规也是如此。

郭锐:谢谢华夏老师。大家都对法律寄予很高的期待,各国立法者好像都在进行技术追赶,很多法律学者都开始关注这个领域,都想知道怎么样应对人工智能带来的问题。但是,作为一个法律人,我想说我们必须看到法律本身的特性。立法是一个缓慢的过程,可能需要集中民意,通过诸多论证之后才能完成立法。反倒是在技术和行业层面上,能够更快地对问题做出回应。

我注意到前面几位老师都是从现存的 AI 技术出发来思考 AI 系统及其给社会带来的问题。我最早思考这个问题的缘起,相信和今天参与直播的很多观众一样,是关注 AI 技术的潜力。我想请教一下漆远老师:很多人真正思考 AI 伦理问题,是因为看了一些科幻电影。科幻电影里面经常出现的一个场景,是 AI 的智能大大超过人类,甚至对我们的生存造成了威胁。在技术领域里面,大家对于通用人工智能甚至超级智能是否可能实现有不同的看法,我想请教漆远,您认为通用人工智能可不可能实现,有没有可能给我们带来生存上的危机?再请您对这个问题的整体进行回应,一会儿有机会也想听听大家如何看待这个看起来有点遥远的未来问题,下面先请漆远老师。

1.未来能否实现通用人工智能?并非绝无可能。

2.AI 治理需要推进与法学、经济学等结合的跨学科研究

漆远:在一个机器学习学术的顶会里有过一个调查:你觉得什么时候通用人工智能何时会实现?即使在一个非常专业的技术会议里面,答案也是百花齐放的——有人认为五年,有人认为五十年,有人认为永远不可能。这个反映了什么?说明对科学的预测本身是非常难的。现在学界业界比较关注的是深度学习。现在有个说法是“大模型即正义”。自然语言处理等模型参数从以前的百亿级到现在的千亿万亿级。海量的数据和计算使得大模型能力越来越强。比如使用大规模自然语言模型可以自动写出真假难辨的新闻,——当然,这是另外一个话题,即数字生活安全与可信问题。但是面对如此强大的自然语言模型,如果我们问2+3是几?它能回答出来,但是如果问“1525091+8747721”是多少?它就无法回答了,能力还不如一个简单的计算器。这背后说明一个问题:从人工智能围棋程序“Alphago”到现在一系列数据驱动的深度学习技术出来以后,很多人都对人工智能的发展比较乐观,但其实现阶段的人工智能所具备的推理能力还非常低的。

人工智能可以有很多条发展思路,现在大家看到的深度学习只是思路之一。未来把知识、人的推理能力和数据驱动的深度学习结合在一起,可能成为未来非常重要的发展方向。在这个目标没有实现之前,也就是说在 AI 在不具备常识推理的能力时,实现真正的通用人工智能是不可能的事情。换句话说,AI 目前像一个走火入魔的练武之人,它在某一个领域特别厉害,但是稍微改一下领域,它可能会出大问题。AI 的推理能力、可解释性都是非常关键的问题,如果没有解决这些问题,我们谈的通用人工智能是不太可能的。

但是从另一方面看,也不能说绝对不可能。今天我们在这一个有意思的时间点上,未来有各种可能性。如果把几种技术思路和因素结合在一起,或许能够在通用人工智能的路上大踏步走出一步,这谁也不知道。就像在2010年深度学习兴起之前,深度学习背后的很多思路早就已经有了,但并没有落地推广。随着海量数据和强大计算能力的到来,深度学习在十年间突飞猛进,被业界大量使用。我们谁都不知道会不会有新的种子点燃新的剧变。但是我们必须努力的是在人工智能技术被广泛使用的今天,如何治理 AI 技术,保证 AI 技术的可靠和可信。打一个比方,假如我们不知道如何管理高速公路,最简单的方法是关闭高速公路。但如此一来会降低大家通行效率。这显而易见不是我们想要的治理方法。我们会通过建立红绿灯等交通管理系统进行管控。类似的,我们要在发展 AI 的同时,做好 AI 治理系统和相关技术研究。而要做好这个,需要对 AI 技术与法学、经济学等结合进行跨学科的研究和思考。跨学科的研究将有助于 AI 走向可靠的、可持续发展之路。

实通用人工智能的技术发展边界问题

薛澜:通用人工智能是个非常有意思的话题,我想趁这个机会问一下三位专家,假设人类实现通用人工智能以后,AI 有可能做出更多更能干、更强大的事情。但是,通用人工智能发展到某个阶段,可能会对人类产生一定的威胁,在这样的情况下,我们到底应不应该开发这项技术?一般性地讨论时,大家都会说科学技术研究应该无止境、无前沿,走到哪算哪,但当我们预料到某些问题的时候是否应该按下暂停键?在通用人工智能技术开发方面,它的界限要不要设、应该设在哪儿?想请三位专家来帮我们解答一下。

实现通用人工智能”的说法并无现实依据;AI 技术的控制关键在于规制其背后的制造者

洪小文:第一,对于“实现通用人工智能”的说法我们还没有看到任何现实依据。第二,通用人工智能至少有两种,所谓“通用人工智能”,就比如我们人类自身,就是一种通用人工智能。我常常讲,“强人工智能很弱,弱人工智能很强”,什么意思呢?弱人工智能就是专家系统(Expert System),它只能做一件事,做得比谁都好,比如做一个特定物体的辨认系统,它就只能辨认狗和猫或者犯罪嫌疑人,这叫“Narrow AI”,它很强大;但是我们呢?恰恰相反——每样都懂一点,比如我可以谈治理,可以谈 AI,也可以谈量子,什么都可以谈,但是我除了计算机是专家,其他都不是专家,因此事实上通用人工智能是很弱的。我们的孩子也是通用人工智能,你今天会教他做所有事情吗?当然不会,只会教他做某一件事情。所以,我觉得大家对通用人工智能不要抱以太多厚望。我们担心的其实是“超级人工智能”(Super intelligence),比方说这个人什么都懂,什么都是世界最强,有没有这样的客观存在?就目前所有对通用人工智能的研究来看一点影子都还没有,因为今天的人工智能根本没有具备系统化解问题的功能。试想,我们今天怎么造一个机器,让它解一个从来没有遇到过的新问题,让算法自己去解问题根本不可能。我们今天很多问题无解,就拿计算机里面,NP 是不是等于 P,没有人知道。对于某些问题,我们也根本不知道怎么解决,所以我觉得通用人工智能离我们很远。

讲到治理,谈一个没有的东西:时间机器(Time machine),怎么治理?这可能是哲学界可以讨论的问题,但今天我们对它的讨论不是哲学意义上的讨论。对于你刚刚的问题——如果有人说他可以做出超级人工智能来,我们该不该禁止?讨论这个问题前,我觉得考虑近期问题可能更为迫切,比如转基因或者基因编辑,就是“人造人”,基因工程可以造福人类,也可以为害一方,所以哪些科技应该得到发展,这也是哲学意义上的问题。还有一点我比较有信心的,人做任何事情都希望它可控,很多人担心我们创造的事物不可控,因此,任何一个科学家进行发明创造,没有人希望不可控,没有人希望最后把这个世界给毁了。除了疯子以外没有人会干这种事,但是怎么限制疯子呢?这又要回归到哲学性的探讨。如果人类真的实现了通用人工智能,我们能否控制它,在于我们需要控制其制造者。

1.AI 未来发展不好预测,但是实现通用人工智的概率不是零;

2.可靠性与信任:AI 制造者负有责任,也需要将人和机器作为大系统整体来思考和分析;

3.隐私问题:协同行业共同发展“可用不可见”的隐私保护的机器学习技术,促进隐私保护与数据价值实现的平衡

漆远:几年前在麻省理工学院(MIT)顶尖科学家之间有一个非常好的辩论,关于通用人工智能。他们辩论的主题是——将来机器人是否能够像牛顿和爱因斯坦等科学家一样发现科学定律。几年前在一个电视节目上我和伯克利的杨培东教授、清华的鲁白教授和西湖大学的许田教授等人,讨论过一个关于未来的技术问题。当时,我也提出了这个问题。我没有答案,但是我感觉这是可能的。在 MIT,这是一场非常激烈的辩论,在场的研究者分为两派,一派认为不可能、这个技术的“种子”不存在;另一派认为,为了实现这个目标,这个技术路线未来如何发展我们不得而知,但有可能实现。我们并不知道未来会具体发生什么,实现这个目标的挑战会非常巨大,但其实概率是零的事其概率才是零。就好比在金融风险领域不存在任何情况下绝对不会发生的风险。系统可控性同样如此,人人都想做出可控的系统,但是系统经常就在我们以为可控的时候出现不可控的情形。所以系统设计里面要留有所谓的“冗余”(Redundance),即理论上没有问题,但工程实现的时候,要留有冗余和余地。

这里就讲到信任和可靠性的问题。确实,人是第一重要的,现在的机器也是由人制造。在著名的科幻作家阿西莫夫提出的“机器人三定律”中强调,机器人必须听从人的指令,不可以伤害人。但是,假如我们未经认真思考,对机器人下达了一些不计长期后果的指令,就完全可能发生我们没有预料到的大规模风险。从无人驾驶到医疗服务、金融服务,机器正在参与越来越多的决策。认为只要控制住人,智能系统就没有风险,这其实远远不够的。一个原因是智能系统越来越复杂有很多无法理解的地方,所以前面我提到“可解释性”非常重要。技术人员往往希望系统是开放透明的,能够持续发展的。但是在技术发展成复杂系统后,就技术本身而言,普通人很难明白背后发生了什么、很难解释技术背后的原理是什么,系统里的因果关系是什么。现实中会很难认定事故背后的真实原因,是人造成的,还是系统的哪个因素造成的。不能简单的说,人是负责的(accountable),系统就是负责可靠的(accountable)。比如司机很称职,但如果刹车出现故障,同样可以导致车祸。所以需要将人和智能机器看一个大系统从整体来思考和构建可信可靠性。

数据隐私保护,是用户保护的问题,也是一个数字经济的发展问题。一方面涉及数据生产资料,但另一方面又事关每个用户的权益,如何在保护用户隐私的同时,让 AI 发挥数据价值推动经济持续发展,这也是一个非常关键的问题。隐私的反义词可以是“透明”,透明能够帮助信任,但就保护隐私而言,有些地方是不能透明和对外开放的。对于隐私保护来说,去标识匿名化是我们可以使用的技术方案之一。但如果将数据简单地完全匿名化,数据所含的有用信息量也会大大减损,数据价值降低。其实数据作为一种生产资料,就像大楼的砖头一样,砖头放在一起才能盖起大楼,单个的数据点很难产生巨大价值,只有互补的数据源合在一起才能让 AI 发挥最好的价值。

这里就引出了一个非常关键的问题:智能时代下的数字经济能不能既保护隐私,又发挥数据核变的经济推动能力?蚂蚁集团在2016年开始布局隐私计算、开发相关技术,在世界范围内我们拥有数量最多的隐私保护专利,包括“差分隐私”、“多方计算”、“可信环境计算”等技术。这些技术可以帮助数据可用不可见,但是他们有不同的安全等级。我们可以基于场景,把数据和隐私保护技术进行分析分类,把他们划分成不同安全等级,在某些安全等级下可以用对应的某类数据和技术。每一个安全等级都有对应的代价,就像越重的汽车往往越安全,但是也消耗更高的能量。我们要基于场景需求来选择适当的技术。最后,隐私是一个社会问题,需要更多的人来一起讨论,需要来自各行业的研究者和从业者共同讨论。世上没有一个绝对的答案,就像中国文化讲求的平衡发展,我们要在中间点上找到一条共同前进的路。

郭锐:我以前听过一个笑话:有一个修车的人,他问医生:“凭什么修车的一个月就赚这么一点钱,医生就赚的比我们多得多?而我们做的工作是一样的,我就是把车上面坏的部分修好,你就是把人身上坏的部分修好。”医生说:“你是怎么修的?你把车停到修车库,抬起车,把损坏的零件取下来,订一个新的零件,把它装上就好了。我怎么干我的工作?我有一个病人正在呼吸,但是我要给他肺部动一个手术,要保证他在这个过程中不能死,还要让他减少痛苦,把这个手术做完,还要保证病人复建后很好地完成所需的一切活动,医生的工作要比你难得多。”我们在人工智能技术已经投入应用、而且实实在在地对社会产生影响。同时,我们还在进行技术方面的改进、实施各种治理方案,这需要我们像医生一样谨慎。存在各种各样和 AI 相关的技术和治理问题——隐私的问题、公平性的问题,还涉及到透明度的问题——如何在治理的同时,还能从整体上赢得社会的信任?以下我们转入第二个议题的讨论:如何应对人工智能治理问题?先请华夏老师。

议题二:如何应对人工智能治理问题?

保障 AI 公平性——美团“助老、助残项目”

夏华夏:很多技术我们没法禁止,技术的发展总在往前走,只要大家知道这个地方有一个技术金矿,总有很多对未知的事情充满好奇的学者,包括企业界的人,不断进行探索。今天讨论 AI 的治理,目的就是在技术不断往前发展的时候能找到一些规则办法,让越来越先进的技术继续走在向善的、帮助我们的用户及社会、甚至帮助整个人类的方向上。美团把人工智能应用于生活服务的很多场景,大概包括200多种不同的生活服务功能,包括吃喝玩乐、出行游玩,每个功能里面都会涉及人工智能。我们有很多例子与公平性有关,有时候不同的人使用人工智能技术的应用效果是不一样的,比如老人或其他残障人士往往不会使用人工智能的工具,我们在设计人工智能应用的时候,会特别注意帮助老年人、帮助弱势群体设计一些应用。我们有一个助老项目,专门开发一款打车程序,该 APP 字体特别大,且在 APP 的页面里不需要输入目的地,可以上车之后告诉司机你去哪,让司机帮助输入。此外,在这个程序页面里,老年人会有一个紧急联系人,APP 可以实时跟亲属汇报老年人的位置,这样在年轻人来看很正常的一个 APP,老年人也能够便利地使用。

再比如说我们有一些盲人用户,由于看不见,他们很难使用手机上的 APP,但是为了让一些盲人用户能够在美团 APP 上点餐、打车,我们为他们开发了一个语音交互页面,这些用户就可以完全通过语音在 APP 上点餐、打车,后来发现这样的 APP 对很多老人、小孩也非常有用。这是在公平性方面美团所做的一点小的示例。就像洪老师说的,AI 技术本来无所谓好坏,真正决定 AI 是向善还是向恶,则是使用 AI 的工程师、企业,美团希望在内部制定这样的规范,让人工智能技术能够帮助每一个用户。

郭锐:我有一个对技术前景好奇的问题,在法律和治理领域有学者提出:可以把一些道德伦理的价值内化到代码中,在研究或者应用中是否存在这种道德算法?

1.要慎重选择 AI 公平性的考量标准,要全面、多层次考虑;

2.就社会角度而言,蚂蚁集团开发支持弱势群体接入数字生活的技术、实施扶贫项目以促进就业;

3.就人与自然角度而言,蚂蚁集团通过 AI 实施环保项目。

漆远:就 AI 公平性而言,从技术的角度,到社会的角度,再到人和自然的角度我来讲几个例子。首先要有向善的心,但是好心不一定办好事。在技术上,要慎重选择和设计 AI 公平性的考量标准。一个经典的例子:辛普森悖论——在不同层面看问题会得出完全不同的结论。比如伯克利大学在统计男生女生的入学率时发现,1973年男生录取率40%多、女生30%多(在美国专门讨论各个种族、性别的大学录取率最能反映公平性,因为教育是最大的公平),似乎是女生被歧视了。如果再仔细看,将各个系的男女录取比例进行比较,就会发现每个系女生录取率不一定低男生,甚至比男生录取率还高,这是怎么回事?听说现在不少国外高校的录取系统都使用了计算机辅助决策系统,如果要把道德指标写入这算法决策系统里,怎么选定这个指标呢?是全校的男女录取率的平衡还是每个系的男女录取率的平衡?这是需要仔细考虑的。回到那年伯克利大学录取的问题,背后原因是什么?分析发现大量男生申请了录取率比较高的系,而女生普遍申请了录取率比较低的系,从而拉低了学校范围的女生录取率,尽管从每个系的角度看,男女录取比例基本一致的。如果我们录取更多女生,让学校范围的男女录取率更一致就可能导致在每个系里男生都比女生更难被录取,会是对男生的歧视。

还有一个非常经典的例子,在美国某个州关于黑人死刑判决里面是否存在歧视有过法律分析。当时的问题是否黑人杀人更容易被判死刑?整体看好像没什么区别,但如果按照“受害者是白人或黑人”或者“行凶人是白人或黑人”进行分类,并分开分析,就会看到一个完全不同的结论。所以要从不用层次细致分析设计算法公平性的指标,分析是否存在“辛普森悖论”, 否则也许会导致好心办坏事。更深入而言,公平性背后一个很重要的基础是因果分析——究竟是什么东西导致了当前情况的不一样,是自身不努力不负责导致的问题?还是先天条件导致其受到限制?针对不同的原因,治理方案是不一样的,背后涉及哲学和法律的思考。所以我们在设计这些系统指标时,需要哲学家,社会学家,法律学者和 AI 技术专家一起讨论,把哲学法律等人文的思考和技术结合在一起,才能实现持续良性的发展。

再讲个具体的例子。蚂蚁集团技术上关心弱势群体,支付宝开发了帮助弱势用户的功能。例如把 APP 菜单自动用语音读出来帮助视力有障碍的人使用支付宝。另外,为了防止黑产使用机器攻击,支付宝在用户身份验证时可能需要校验码来证明使用者是人不是机器。而对于盲人来讲,由于看不见就无法完成拖拉通过校验,就无法使用电子支付。蚂蚁技术人员开发了空中手势识别技术,可以帮助盲人通过身份校验。蚂蚁会把这个技术开源给行业,协同行业伙伴帮助更多人。

从社会的角度,我们用 AI 技术来帮助边远贫困地区就业。两年前我的团队通过“AI 豆计划“开发一系列的 AI 工具帮助在陕西清涧当地人作数据打标。借助智能数据打标工具,没有经验的普通人也迅速上手。目前“AI 豆计划”已在全国培训了2000多名从业人员,其中困难群众占比50%以上。让困难群众,尤其是贫困地区的女性,实现在家门口获得更多就业机会。

更大的角度是从人机器和自然的关系切入,保护环境。我们的 AI 技术团队在2019年开发了“AI 垃圾分类”小程序和智能垃圾桶,使用 AI 技术来区分干垃圾、湿垃圾等几千种垃圾,提高垃圾回收和处理努力。我们也因此获得联合国绿色可持续发展“绿眼睛奖”。

郭锐:谢谢漆远老师,漆远老师已经把我们带到了讨论的第三个主题。由于技术的进步前沿的研究和应用都在行业里面,所以企业也许需要承担更多的社会责任,这也是 AI 不同于传统技术的地方。薛澜老师在公共治理方面是真正的专家,从社会治理的角度看,我们想请薛老师就企业的社会责任给一些点评。

议题三:从 AI 伦理和治理的角度看,科技企业有什么样的社会责任?

在 AI 治理领域,“敏捷治理”是处理政企关系的最佳方式

薛澜:现在我们在人工智能领域讨论治理问题,企业要承担很大的责任。通常讲行业治理,政府作为治理者,企业作为被治理者中间,与政府往往有种博弈关系,政府出台一些规则以后,企业总想在遵守规则的情况下,使得企业利益最大化,甚至规避一些监管,这很常见。而人工智能领域的实际情况是,由于技术发展很快,政府作为治理者远远落后于企业。治理者在制定规则的过程中,技术已经往前走得很远,永远是一追再追(Catch up forever)。

对此,比较好的治理模式是“敏捷治理”,政府和企业都要改变观念。如果企业发展过快,导致以公众利益和安全为目标的政府管制无法企及。倘若此时企业出现一些问题、带来一些危害,政府就会把管制口袋扎得很紧,甚至一下就会把企业卡死,这样对技术的发展非常不利。怎样使得治理者和技术发展者之间形成良性互动,这就要改变原来政企互相博弈的关系,从猫抓老鼠的关系转变成搭档的关系。技术发展迅速可能会带来一些危害,如果政府没有及时采取措施,公众也会问责,所以政府对技术不及时下手监管,对技术发展本身也是不利的。“敏捷治理”要求政府与企业互相沟通,共同讨论潜在风险,谈判如何有意识地加以规避。鉴于不同类型的企业在不同发展阶段可能考虑问题不同,所以这时尤其需要成熟企业与政府合作,建立合理的治理框架,我觉得这是最合理的治理方式。另外,如果企业出了一点小问题,政府就一下采取非常严厉的规制手段,对技术发展也是不利的。政企要形成互动关系,企业要比原来承担更大的社会责任。

由于人工智能技术的复杂性,从某种程度上讲更加需要强化企业的自律。较之其他行业,社会对 AI 企业自律的要求更高,只有这样,才能够让人工智能技术更健康的发展。

与其担心 AI 导致的失业问题,不如关注教育。未来在孩子的教学课程中,至少应该安排不少于6年的 AI 通识教育。

洪小文:我认为企业应当负担更多的社会责任。第一,法律只是最低标准,企业最先接触技术,法律在后制定管制标准,所以企业走在管制前面。微软这几年的转型很成功,很大的原因在于我们在同类公司里比较值得信赖,微软在191个国家有商务往来,尤其是2B的业务,守法是最基本的,没有信任根本行不通。尤其是高科技方面,因为涉及多方的利益相关者,我们应该要听取各方的想法。

第二,今天很多人把超级人工智能想像得像神一样,但没有影子不代表机率是零,做 AI 跟做时间机器,很难说哪一个比较难。但是,以假设实现超级人工智能的思路进行 AI 治理,完全是缘木求鱼,所以治理的关键是契合今天的 AI 技术。我可以保证人工智能再往前发展,不管进展怎样、能够做到什么程度,它背后的原理永远是“AI+HI”(人工智能加人类智慧)。我们希望这个制造群体可以做出最好的判断。

第三,至于人工智能会不会取代一部分人类的工作,很明显当然是会。从历史来看,一两百年前,90%的人从事农业工作,今天最多只有10%的人从事农业,而其他的90%并没有失业。汽车的发明导致马夫失业,这是技术发展的必然结果。技术更迭对职场的变化是必然的,更不要说新冠疫情更加速了这一变化,远程会议、线上教育,数字化让将来的工作场所可以无所不在。不管从政府角度、个人角度还是公司角度,与其担心就业问题,更应该关注教育,数字教育不只属于计算机专业的课程,实际对非计算机专业也一样重要。我个人觉得,未来每个人不论文科理科,都至少接受了12年的数学教育,那么对于计算机、大数据、AI 等一些通用的数字技能而言,至少应该安排6年的通识教育,这不是自由班教育,而是大家所必备的基本的数字技能。此外,还要鼓励每个人终身学习。因为对于 AI 而言,10年前学习的东西和现在完全不一样。当然,还需要很好地职业技能匹配及认证系统,帮助大家进修以后找到更好的工作。

第四,牛津大学经济学家讲过,“The purpose of business is to produce profitable solutions to the problems of people and planet”(商业的目的不仅是利润,而是要能够创造解决人类和地球的问题的解决方案)。怎么样让 AI 解决人类的大问题,还可以实现盈利,这是每个企业都要考虑的。比如为节能减碳,微软去年提出“负碳”的承诺,到2030年实现碳的负排放,到2050年消除公司从1975年成立以来的碳排放总合。要做到负排放,首先要做到零,不是通过买碳税,而是要让包括云计算在内的所有的产品,都做到百分之百的零碳排放;在硬件软件的制造上,不仅要用再生能源,而且要更省能源;同时帮助我们的伙伴以及客户,减少他们的碳排放。当然,面对地球环境和气候的挑战,仅仅减少碳排放还不够,碳排放即使达到零,在大气层中怎样回收、怎么样捕捉碳排放,这也需要企业拿出资源资来,一起治理我们的环境,不仅为我们自己,也为我们的子子孙孙。

郭锐:今天的科技企业和传统大企业相比,还有一个不同的地方,就是每一个“头部大企业”,包括美团、微软、蚂蚁等,最初都是建立在满足社会需求的愿景之上。比如在金融服务领域,因为有了支付宝,大大减少了人们去****的频率。再比如在“新冠”疫情期间,如果没有美团外卖或者买菜等智能服务,整个城市都会停止运转,正是因为有了这样的新科技,让我们这个城市在经历这么一场巨大挑战的时候,我们能够挺过来。刚才漆远老师讲到验证码的问题,我也特别有感触。我在人民大学教授残障法,我们会邀请很多盲人朋友到课上分享经验或者给我们提供一些具体案例,曾经有一位盲人朋友分享在买火车****的时候,某款 APP 的验证码操作非常复杂,让没有视力残障的朋友使用起来都很麻烦,这导致他几乎没有办法从手机上买****。去趟火车站,困难又非常大。因此,支付宝的验证码真的是解决了非常实际的问题,这些都是科技企业承担社会责任的表现。正如薛老师刚才所讲,企业在“敏捷治理”里回应社会的呼声,的确是单纯的政府管理所无法取代的。

*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。



关键词: AI

相关推荐

技术专区

关闭