您的位置:www.85058.com > 技术支持 > 看脸识罪犯是洗白相面术?对于美国学者的质疑

看脸识罪犯是洗白相面术?对于美国学者的质疑

发布时间:2019-11-05 04:34编辑:技术支持浏览(192)

    原标题:机器人的平权宣言:为什么我们非得被造成白色的?

    “通过机器学习,分类器能比较可靠地区分罪犯与非罪犯这两个群体的照片。平均来讲,罪犯的内眼角间距要比普通人短5.6%,上唇曲率大23.4%,鼻唇角角度小19.6%。”去年11月上载在预印本网站arXiv上的一篇论文里的研究结论让学界和舆论界都瞬间“炸锅”。

    图片 1

    半年后,三位美国学者撰写万字长文隔空喊话:机器学习不应洗白相面术。

    大数据文摘出品

    该论文的作者、上海交通大学图像通信与网络工程研究所教授武筱林已在过去的半年间收到了无数质疑或批评的邮件,近日,他又遭遇了三位美国学者以撰写万字长文的形式隔空喊话。

    编译:张秋玥、雪清、睡不着的iris、钱天培

    这篇万字长文名为《相面术的新外衣》(Physiognomy’s New Clothes),于当地时间5月6日发表在新媒体网站Medium上。三名作者,Blaise Agüera y Arcas是机器学习领域的著名工程师,2013年从微软跳槽到谷歌;Margaret Mitchell同样是谷歌的人工智能研究员;而Alexander Todorov则是普林斯顿大学的神经科学教授。

    用百度搜索“机器人”的图片。

    “机器相面术”,新瓶装旧酒

    不出意外,结果应该就和文摘菌下面查到的差不多。

    三位美国学者的文章并非学术论文,在万字的篇幅中,他们讲述了相面术发展的历史,解释了机器学习研究领域的一些基本情况,并以武筱林和张熙的研究为靶子,指出就像他们的研究是披着机器学习外衣的相面术,人类社会中的许多歧视也可能会被算法洗白。

    仔细看看,有没有觉得哪里不对劲呢?

    文章的三位作者指出,“相面术试图从人的外貌推测其内在性格。虽然今天相面术被视为伪科学,但民间还是有人相信可以从面相或身材中鉴别出低级一点的人群。而在有些历史时期,相面术也内嵌在了国家法律中,为侵占土地、反移民、奴隶制和种族清洗提供依据。而关于相面术的伪科学就是科学种族主义。”

    图片 2

    他们认为,上述的这类研究在人工智能时代的新形态就是武筱林式的。“在计算机和大数据无处不在的时代,‘机器相面’开发出了许多前所未有的用途。因此,人工智能的开发者、评论家、用户们都急需了解技术的边界和相面术的历史,如今它披上了现代的外衣。”

    大多数人应该和文摘菌一样,没看出什么异常。然而,来自新西兰坎特伯雷大学的Christoph Bartneck教授却指出:这样的结果大有问题——为什么机器人就一定要是白色的呢?

    图片 3

    在今年的ACM/IEEE人-机器人交互(Human Robot Interaction)国际会议上,来自新西兰坎特伯雷大学人机交互技术实验室的Chrstoph Bartneck教授等人发表了他们关于机器人种族属性的研究。他们发现,人们会将具备拟人化特征的机器人归类于某个种族,导致人类对该种族的偏见会被投射到机器人身上。

    纳粹“种族科学家”在做容貌测定。

    “我们希望本研究能够鼓励机器人设计师们创造出代表他们群体多元化特征的机器人,没有必要把所有机器人都设计成白色。”Bartneck如是说。

    5月9日,武筱林向澎湃新闻回应道:“那三个美国作者忽略我们原文中的一再声明,我们没有兴趣也无社会科学的学术背景解释我们的结果,讨论其成因。更没有暗示要用于执法司法。他们硬把这些意思强加给我们。”

    不少人或许会对这样的研究嗤之以鼻额。毕竟,如果我们询问机器人制造公司,为什么要将他们的机器人设定为白色,他们十有八九会告诉你:因为白色跟各种家庭装饰都很百搭呀!

    “在价值观上我们与此文作者没有任何差别,他们歪曲我们的初衷,为了自己找一个假想敌。”武筱林强调。

    实际上,Bartneck的文章在投稿期间就收到了不小的阻力。他们的文章被读者反复审视,有些人指责作者在耸人听闻。

    “看脸识罪犯”研究无实用可能性

    那么,这项研究的结论究竟如何得出,对我们又有哪些启发呢?

    这篇饱受争议的论文题为《基于面部图像的自动犯罪概率推断》(Automated Inference on Criminality using Face Images)。在实验中,武筱林和其博士生张熙选取了1856张中国成年男子面部照片,其中730张是已经定罪的罪犯身份证照片(330张来自网上的通缉令,400张由一家签署过保密协议的派出所提供),其余1126张是在网络上抓取的普通人照片。经过机器学习,算法鉴别出犯罪嫌疑人的准确率达到87%。

    让我们通过IEEE对Bartneck的一段专访作进一步的了解。

    图片 4

    专访内容

    武筱林研究使用的照片样本。a组为罪犯,b组为非罪犯。

    《科技纵览》杂志(IEEE Spectrum):你在这项研究中具体在回答什么问题?

    在论文的导语部分,武筱林和张熙声明:“在本文中,我们无意也不够格去讨论社会偏见问题。我们只是好奇,全自动的犯罪性推定能有多高的准确率。一开始我们的直觉是机器学习和计算机视觉会推翻相面术,但结果是相反的。”

    Christoph Bartneck:首先,我们想探究人类是否将机器人与种族相关联。其次,如果答案是肯定的,那这种对机器人种族的归类是否影响人类对待这些机器人的行为。更详细地说,我们会让参与者回答一系列问题,包括对某一机器人的种族分类(选项包括“不赋予种族”)另外, 我们也使用了“射手偏见”框架(shooter bias framework)。

    而论文中的87%准确率,只是在学术层面上得到了比较显著的相关性。一方面,这并不能解释任何因果关系,即到底是长相决定了天生的犯罪性,或者是人类社会对长相的歧视促成了犯罪概率的差异,都留待社会科学的解读。另一方面,这个数据也完全不具备应用可能性。舆论对其研究实用性的关注,甚至有网友建议他把这项研究交给纪检委,都让武筱林觉得哭笑不得,十分“跑偏”。

    在射手偏见研究中,参与者被赋予警察的角色,当面对人们手持枪械或其他友好物体的图像时,他必须决定是否射击。图像仅显示一瞬间,研究中的参与者来不及做出合理的思考,他们必须在不到一秒的时间内采取行动。若参与者在决定开枪时对黑色机器人(对比白色机器人)开枪更加快速,在决定对没有武器的机器人不开枪时对白色机器人(对比黑色机器人)下决定更快速,我们就会认为这位参与者对机器人存在种族偏见。

    这是因为,基于中国千分之几犯罪率的背景条件,实验中87%的真阳性若用于实用,判断正确率将非常低。此外,这项研究本身就存在许多值得商榷的地方。比如,实验样本不够大,容易造成机器过度学习。

    图片 5

    图片 6

    《科技纵览》杂志(IEEE Spectrum):你们的研究结果如何?

    平均来讲,罪犯的内眼角间距要比普通人短5.6%,上唇曲率大23.4%,鼻唇角角度小19.6%。

    Christoph Bartneck:我们在调查中直接要求人们选择“该机器人是什么种族”时,只有11%的被调查者选择了“不适用”选项。我们的隐性衡量标准证明了人们确实种族化机器人并据此调整他们的行为。我们调查的参与者显示他们存在对机器人的种族偏见。

    虽然武筱林团队的研究成果无意也无法用于现实应用,但近来,人工智能领域确实出现了类似应用的苗头。而在人脸识别上惹出伦理官司的也绝非别无分号,这次站在政治正确性高地的Blaise Agüera y Arcas和Alexander Todorov供职的谷歌就曾栽过一个大跟头。

    此外,我们的“射手偏见”研究显示,无论图像中出现的是人类还是机器人,与武装的白人相比,参与者更快地射击武装的黑人;同时更快地避免射击手无寸铁的白人,而不是同样解除武装的黑人。这些发现说明了射手偏见既存在于人类之中,同时也存在于机器人之中。这种偏见明确表现了对黑人的种族歧视,更是将这种歧视自动延伸至种族化为黑人的机器人。

    黑人被识别为 “大猩猩”

    《科技纵览》杂志(IEEE Spectrum):为什么这个主题以前未曾被研究过?你为什么决定对此展开研究?为什么它很重要?

    2015年,谷歌推出了相册应用Google Photos。该应用除了备份、整理照片之外,还会自动为照片添加标签,以便用户快速查找。

    Christoph Bartneck:许多工程师都忙于实现机器人基本功能,如行走与在所处环境中移动。这是他们最为关注的问题,以至于他们没有那么重视研究所产生的社会影响。

    然而,就是这个基于图像识别技术的自动标签功能捅了篓子。纽约的一名黑人程序员Jacky Alcine惊讶地发现自己和黑人朋友的自拍照被Google Photos打上了“大猩猩”的标签。他将截图放上了推特,谷歌第一时间做出了道歉,将“大猩猩”这个标签暂时撤出系统,并以最高优先级解决这个问题。

    大部分时候,机器人的设计是由内而外的,意味着各功能部件先被搭建并测试,最后再添加一个外壳包装。至于这层包装将如何影响人类使用者,或更宽泛地说,机器人整体将如何被其使用者所感知,绝大多数时候只有事后才会被想到。

    图片 7

    因此,几乎没有机器人创造者思考过种族歧视问题。多年来,人-机器人交互(HRI)社区的成员们在尝试更深理解人类与机器人是如何交互的。我们试图帮助机器人创造者将机器人设计得与社会更加融合。种族歧视对人类与人类社会整体都正在造成大量伤害。

    黑人自拍照被Google Photos打上了“大猩猩”的标签

    今天,种族歧视依然真实地存在,黑人平权运动更加证明了这个问题的重要性与紧急性。与此同时,我们将推出社交机器人,目的是与人类互动,融入人类社会。这些机器人将成为未来的护工,教育人员与陪伴者。

    相关技术人员指出,谷歌可能并没有提供足够的大猩猩照片供机器学习到其中的差别。不过,也有其他网友安慰Alcine道,自己的照片也曾被识别为“猫”或“马”。

    本文由www.85058.com发布于技术支持,转载请注明出处:看脸识罪犯是洗白相面术?对于美国学者的质疑

    关键词: