人脸识别出现“技术偏见”,长得太黑无法识别?

阅读  ·  发布日期 2018-06-29  ·  金人网络

在演唱会“抓逃犯”上屡建奇功的人脸识别,其实还是不成熟的技术,具体表现在对肤色和性别的歧视上。

微软发现,商用人脸识别识别肤色较浅的男性准确率最高,而失误率最严重的是肤色较深的女性。

人脸识别出现“技术偏见”,长得太黑无法识别?

这可算是人脸识别的“技术偏见”了。

这种偏见一旦在大范围应用中“显现”,声讨种族和性别“歧视”的声音,将会淹没微软。

为了解决充满偏见的技术,微软 Face API 团队对其识别系统进行了三次重大改进。最新的人脸识别系统,识别肤色较深的人错误率降低了 20 倍,识别所有女性的失误率减低了 9 倍。

尽管有了改进,但目前的人脸识别,还不是完美的系统。微软认为,问题的根本解决办法还是训练数据库,需要收集更多的数据,包括不同肤色、发型和面部饰品等。

人脸识别出现“技术偏见”,长得太黑无法识别?

▲ 研究发现,微软和 IBM 的识别黑人女性出错率高。图片来自:Daily Mail

中国人普遍的黄皮肤,刚好避开了“最浅”和“最深”的肤色。但我国也有外貌特征各异的少数民族,如果人脸识别对此产生技术偏见,就不是简单的“开地图炮”了,可能会引发严重的民族矛盾。

至于“更大范围攻击”的性别歧视话题,在我国也变得非常敏感,该庆幸人脸识别技术目前还没有惹来“性别歧视骂战”。

偏见的锅不能完全甩给人工智能,技术也是反映真实社会的镜子。

微软研究实验室的高级研究员、AI 系统公平性专家 Hanna Wallach 在一份声明中回应:

如果我们训练机器学习系统使用有偏见的社会产生的数据,来模拟那个社会做出决定,那么这些系统必然会重现它的偏见。

例如,在一些社区中,黑人的犯罪率更高,AI 根据收集来的数据,更容易把肤色较深的人划分到“逃犯”的分类中。这是群体给个体的伤害,人脸识别只不过“遵循了”社会偏见。人脸识别出现“技术偏见”,长得太黑无法识别?

▲ 微软人脸识别的情绪检测功能。图片来自:thenextweb

相比起导致“歧视”,研究团队更希望 AI 能检测和减轻偏见,以弥补现实社会中的不完美。

追捕逃犯用大范围攻击的“种族炮”和“性别炮”容易伤及无辜,人脸识别的方向是更精密的“狙击枪”。

一直对人脸识别技术保持警惕的美国,其海关部门也要启用人脸识别系统,但收到强烈的反对。

关于人脸识别,最近亚马逊的幺蛾子也很多,先是美国公民自由联盟向亚马逊提交请愿信,接着 100 多名内部员工也要求首席执行官 Jeff Bezos 停止向美国警方出售人脸识别软件。目前,美国奥兰多市警察局与亚马逊的人脸识别合同已过期,双方还没决定续约。

“亚马逊人”签署的部分内容:

我们公司不应该在监控业务中; 我们不应该参与警务工作; 我们不应该从事支持监督和压迫边缘化人群的人。

人脸识别出现“技术偏见”,长得太黑无法识别?

▲ ICE 将启用微软人脸识别软件. 图片来自:Inc.

尽管微软员工与亚马逊员工的想法一致,坚决认为人脸识别软件侵犯人权,对美国最近的移民政策尤其不满,希望微软 CEO Satya Nadella 停止与 ICE (美国移民和海关执法部门)签署协议,但目前仍没收到成效。

人脸识别技术到底带来了安全保障,还是带来了歧视,侵犯了个人自由?美国科技公司们的“纠结”,也许值得我们思考,看演唱会被人脸识别,到底是不是妥当的?