博客专栏

EEPW首页 > 博客 > 推特“头像裁剪”算法更爱“白幼瘦”!瑞士小哥用StyleGAN2识破算法癖好,登顶悬赏赛

推特“头像裁剪”算法更爱“白幼瘦”!瑞士小哥用StyleGAN2识破算法癖好,登顶悬赏赛

发布人:大数据文摘 时间:2021-08-20 来源:工程师 发布文章

如今,社交媒体当道。

相信不少人在首次注册社交媒体时,平台都会要你上传一张照片当做头像。

有人会选择喜欢的明星,也有人会用自己的真实照片。

但这都不是最关键的,可能你没有发现,在上传头像照片时,平台对某些照片存在不同程度的偏好。

比如,某些平台内置的算法会偏爱肤色较浅、纹理较光滑且没有戴眼镜的照片,或者是更年轻的面孔:

1.png

而这已经在推特得到了证实。

根据国外多家媒体报道,推特的照片裁剪算法存在较大的漏洞,算法在预览和聚焦不同照片中的“亮点”时,对肤色、胖瘦、性别和年龄有不同的优先级。

也就是说,算法会更偏好“肤色更浅、更苗条、更年轻”的面孔,而不是“肤色更深、脸型更宽、年纪更大”的面孔。

对此,有网友指出,如此看来,算法也称得上是某种极端主义者了。

2.png

用StyleGAN2拆解推特算法的偏好

这个研究结果来自瑞士联邦洛桑理工学院的研究生Bogdan Kulynych。

在推特赞助的“算法漏洞悬赏大赛”中,Kulynych发现,推特的照片裁剪算法对照片中的特征存在不同程度的偏好。

Kulynych使用StyleGAN2生成了大量逼真的面孔,他根据肤色、身材、年龄和女性化等标签对这些面孔进行了分类,然后将这些数据放入了推特的照片裁剪算法中。

Kulynych发现,推特的算法对肤色有着最为明显的偏好趋势,算法更喜欢那些“苗条、年轻、具有典型女性面部特征”的面孔。

3.png

其次便是年龄,该算法对灰头发和白头发的用户存在明显的歧视行为。紧接着的是图片中的文字,相较于阿拉伯数字,算法会更喜欢英语。

4.png

GitHub链接:

https://github.com/bogdan-kulynych/saliency_bias

Kulynych在总结中补充说:“当应用算法时,这些内部偏见本质上会转化为代表性不足的危害,从而剔除那些不符合算法对体重、年龄、肤色偏好的人。”

Kulynych在大赛中获得了第一名,推特称Kulynych的发现“展示了算法模型如何放大现实世界的偏见和社会对美的期望”。 

5.png

推特不喜欢iPhone?漏洞得到官方承认

在更早的时候,相关漏洞就已经被指出。

去年,一位推特用户试图发布他在Zoom的面部识别中注意到的一个问题,即在通话中没有显示出一位黑人同事的脸,当他发帖到Twitter上时,他注意到推特同样更偏向于他的脸而不是黑人同事的脸。

6.png

这对卡通人物同样适用。

7.png

甚至,还有网友发现,与iPhone相比,推特的算法更倾向于显示微软已停产Windows手机。

8.png

当推特首次上线照片裁剪功能时,研究人员在博客文章中解释了他们如何从面部识别开始裁剪图像,但实际上,并非所有的图像都包含人脸。

此外,人脸检测器会经常漏掉人脸,也会在没有人脸的情况下错误地检测到人脸。如果没有发现人脸,视角会自动地被聚焦在图像中心,这可能会导致尴尬的裁剪图像。

9.gif

随后,推特官方也进行了调查,他们发现:

在男性和女性之间,人口统计学上的平等偏向于女性的差异为8%;

在黑人和白人的比较中,白人和黑人的人口比例相差4%;

在黑人女性和白人女性的比较中,白人女性在人口平等方面的差距为7%;

在黑人和白人男性的比较中,白人男性在人口统计学上有2%的差异。

10.png

同时,推特还通过随机选择100张男性和女性呈现的图像来测试“男性凝视”,这些图像在图像中具有多个被算法识别为显着的区域,并观察模型如何选择裁剪图像。

他们发现,每组每100张图像,没有裁剪到头部位置的情况大约3张,在这种情况下,算法会裁剪图像的其他特征,例如运动衫上的字母。

5月,推特下线了图片裁剪功能,只允许用户完整地发布照片,或自己决定如何裁剪照片。

“我们的结论之一是,并不是推特上的所有东西都适合使用算法,在这种情况下,如何裁剪图片是一个最好由人做出的决定。”推特软件工程总监Rumman Chowdhury在一篇关于该团队发现的博文中写道。

Chowdhury表示:“当我们考虑模型中的偏见时,不仅仅是关于学术或实验,而是它与我们在社会中思考的方式有关。”

如何对待算法偏见?

近年来,随着人工智能的逐渐发展,算法偏见也开始得到了重视。

对于此,英国谢菲尔德大学计算机专家Noel Sharkey表示,应该在可能改变生活方式的所有领域中禁止使用算法。

Sharkey对一系列机器学习系统存在偏见的现象深表担忧,Sharkey表示:“现在有很多偏见发生,从工作面试到社会福利,再到决定谁应该保释谁应该入狱等等,很明显我们必须停止使用决策算法。我一直对监管非常重视,我认为它会扼杀创新。”

“但后来我意识到,有些创新应该被扼杀,或者至少要有所保留。因此应该暂停所有影响人们生活的算法,这些算法并没有在发挥实际用处,反而在加深人们的偏见。”

Sharkey曾与谷歌和微软等公司就偏见问题进行了交谈,“他们知道这是一个问题,过去几年他们也一直在努力寻找解决方案,但到目前为止还没有找到”。

“在实验室里,系统可以对白人男性的识别率达到98%,但女性的识别率会偏低,深色皮肤的人效果会更下一层楼。在后面两种情况下,我们都可以说,系统并不能准确识别人脸。”

归根结底,算法背后是人,算法偏见背后其实就是人的偏见,算法的选择也就是在大数据处理之后人的选择。在针对相关现象进行批评时,更应需要关注现实中的偏见,保持内省。

这对每个人来说,都极为重要。

相关报道:

https://www.dailymail.co.uk/sciencetech/article-9879871/Twitters-photo-cropping-algorithm-favours-young-beautiful-light-skinned-faces-study-confirms.html

https://blog.twitter.com/engineering/en_us/topics/insights/2021/sharing-learnings-about-our-image-cropping-algorithm

https://www.theguardian.com/technology/2019/dec/12/ai-end-uk-use-racially-biased-algorithms-noel-sharkey

*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。



关键词: AI

相关推荐

技术专区

关闭