「看脸识罪犯」?这样的研究能发表,LeCun等1700名研究者怒了

Springer已紧急撤稿

鱼羊 发自 凹非寺
量子位 报道 | 公众号 QbitAI

看面相,就能算出一个人会不会犯罪?

这种《少数派报告》式的研究,还真有人做了:依靠面部识别技术,仅凭照片,来预测某个人是否是罪犯。

论文被学术出版商Springer Nature接收,计划刊载在《Springer Nature-研究丛书:计算科学与计算智能学报》上。

「看脸识罪犯」?这样的研究能发表,LeCun等1700名研究者怒了

这个消息,让包括LeCun在内的,来自哈佛、MIT、谷歌和微软等机构的1700名教授、研究人员怒了:

这种论文写出来也就算了,Springer Nature这个看上去浓眉大眼的学术出版商,竟然还要公开刊载?

「看脸识罪犯」?这样的研究能发表,LeCun等1700名研究者怒了

于是,他们给Springer Nature写了一封联名信,严正要求出版商撤回论文,并承诺不再发表类似研究。

机器学习,反而会放大歧视

尽管论文的作者称,其算法具有「80%的准确性,并且没有种族偏见」,但联名发信的AI研究者们认为:

根本没有办法开发出没有种族偏见的预测犯罪系统,因为数据本身就是含有偏见的。

所谓「没有种族偏见」,实际上是把算法偏见和社会偏见混为一谈。

信中强调了这样的观点:刑事司法系统产生的数据不能用于「识别罪犯」或预测犯罪行为

「看脸识罪犯」?这样的研究能发表,LeCun等1700名研究者怒了

要用让AI通过看「面向」,预测犯罪,看似不偏不倚,但实际上基于一个假设前提:有关犯罪逮捕和定罪的数据,都是可靠、中立、无偏见的。

然鹅,引爆全美的乔治·弗洛伊德事件已经再一次用事实表明,这个假设是不成立的——这些数据当中,本身就记录了现实中存在的社会偏见。

信中谈到,这一关乎数据有效性的基本问题,无法通过数据清洗和收集更多数据来解决。

即使研究人员本身不带有任何偏见,机器学习模型也会继承数据集中的偏见,甚至放大歧视性结果。

此外,还有一个更重要的问题。

人脸识别技术之所以能取得现在的成绩,是因为涉及到的任务不存在不确定性。举个例子,给出两张照片,AI只需要判断是不是同一个人就行了。

但是,面部特征和犯罪,真的存在这样的逻辑关系吗?

「犯罪身体特征」,恐怕根本是个伪命题。

「看脸识罪犯」?这样的研究能发表,LeCun等1700名研究者怒了

因此,犯罪预测技术,再现了不公正现象,并且有害

于是,1700名来自多个研究领域的教授、研究者联名要求:

撤销该论文的公开发表,并解释用于评估该研究的标准。

Springer发表声明,谴责使用刑事司法统计数据预测犯罪行为的做法,并承认错误。

所有出版商今后不要出版类似研究。

网友热议

联名倡议一经发出,获得了众多响应,并在社交媒体上引发了网友的热烈讨论。

有网友提到了斯皮尔伯格的《少数派报告》,AI就像里面的“先知”,根据预测提出的指示/建议甚至可能完全不可靠。

这样的研究就是危险的sh*t。

「看脸识罪犯」?这样的研究能发表,LeCun等1700名研究者怒了
「看脸识罪犯」?这样的研究能发表,LeCun等1700名研究者怒了

还有网友认为,依据面部图像去识别罪犯,这种想法并没有比让麦当劳通过面相,预测你今天是要吃麦辣鸡腿堡还是板烧鸡腿堡高明。

「看脸识罪犯」?这样的研究能发表,LeCun等1700名研究者怒了

也有人担心,这样的“客观”算法会成为执法部门掩盖歧视、不公正的借口。

压力之下,Springer Nature也已作出回应:不会发表这篇文章。

「看脸识罪犯」?这样的研究能发表,LeCun等1700名研究者怒了

参考链接

https://medium.com/@CoalitionForCriticalTechnology/abolish-the-techtoprisonpipeline-9b5b14366b16

https://www.vice.com/en_us/article/889xyb/over-1000-ai-experts-condemn-racist-algorithms-that-claim-to-predict-crime

https://www.reddit.com/r/MachineLearning/comments/heiyqq/dr_a_letter_urging_springer_nature_not_to_publish/

— 完 —

版权所有,未经授权不得以任何形式转载及使用,违者必究。