赶上最新的AI论文

如何减少面部识别中的种族偏见?'RL-RBN'用强化学习挑战种族主义。

如何减少面部识别中的种族偏见?'RL-RBN'用强化学习挑战种族主义。

隐私

三个要点
✔️提出"RL-RBN"模型,通过深度Q
-Learning减少人脸识别中的种族偏见 ✔️提供"BUPT-Globalface"和"BUPT-Balancedface"数据集,考虑了种族偏见的影响。

✔️种族意识训练数据集和RFW的广泛实验证明了RL-RBN的有效性。

Mitigating Bias in Face Recognition using Skewness-Aware Reinforcement Learning
by written 王梅, 邓卫红
(2019年11月5日提交)

评论:由CVPR2020出版
主题: 计算机视觉和模式识别(cs.CV)

概况

自2015年以来,得益于深度学习技术,人脸识别也在全球范围内被引入,并在移民管制和警方调查等方面得到了广泛的应用。在日本,2019年被称为人脸识别元年,从去年开始,人们又开始关注人脸识别技术。但与此同时,欧盟、民权组织以及美国的一些州和城市也提出了面部识别技术的技术和伦理问题。

作为提供人工智能技术的主要参与者,谷歌也宣布,由于同样的担忧,将在2018年停止提供通用的面部识别服务,直到面部识别的技术和道德问题得到解决。此外,2020年1月,在2020年AAAI/ACM人工智能伦理与社会会议上,我们将讨论的是挽回面子:调查人脸识别审核的伦理问题。"该文件称。特别有问题的是面部识别模型在性别和种族方面固有的偏见。由于面部识别系统也是由国家和警察组织提供的,因此有人担心由于偏见造成的错误识别会使非白人处于不利地位。

这发生在2020年5月明尼苏达州明尼阿波利斯市一名黑人被白人警察打死的背景下。这一事件迅速引起了人们对面部识别人工智能的关注,导致IBM、亚马逊、微软纷纷退出全部或部分面部识别服务或停止使用

  • 2020年6月8日|IBM
  • 2020年6月10日|亚马逊
  • 2020年6月11日|微软

人脸识别的偏差主要两个来源训练数据和算法;就第一种情况而言,在人脸识别中,经常使用CASIA-WebFace、VGGFace2、MSCeleb-1M等大型数据集,但这些数据集与Google Images和其他网络它是由搜刮网站建立的。因此,收集的数据是随机的,并没有控制性别、种族或其他构成比例。因此,如果用于训练的数据集存在偏差,那么正在训练的模型也会存在偏差。

第二种算法,在人脸识别的情况下
,经常使用Sphereface、Cosface和Arcface,它们被训练成在类与类之间应用一个余量,以最大化训练数据的整体预测精度。
因此,如果训练数据中有很大比例的数据是由某个类组成的,则要针对训练数据中经常出现的类进行优化训练,以最大限度地提高准确率。换句话说,训练数据的偏差倾向也同样提高了测试数据的准确性。

在本文中,我们特别针对种族偏见的这些问题谈了两件事。

  • 提供适合于测试种族偏见的数据集。
  • 深度Q网络(DQN)降低人脸识别中种族偏见的模型。

一是建立一个控制种族偏见的训练数据集。本文发布了两个数据集,BUPT-Globalface和BUPT-Balancedface。BUPT-Globalface的设计是遵循现实世界的种族构成,而BUPT-Balancedface的设计是所有种族的样本量相等。

还有一件事是一种新的模型,它引入了一个通过强化学习动态调整类之间边际的系统。RL-RBN'的建议。这种机制减轻了训练数据的偏差,降低了类间识别精度的偏差。在这个模型中,我们首先应用深度Q-Learning为非白种人创建一个可适当配置的类间余量。政策:表示专业领域代理人:来学习。以下是一些例子奖励旨在调整每个种族的班级内部和班级之间的差距。接下来,这个代理商是人脸识别模型(RL-RBN)。国家训练的进度,根据调整余地。这就导致了它产生了一个通用模型(RL-RBN),班级内和班级间的边际根据种族的平等识别性能进行调整。

要阅读更多。

你需要在AI-SCHOLAR注册。

1分钟内免费轻松注册

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!

如果您对文章内容有任何改进建议等,请通过 "联系我们 "表格与爱学网编辑部联系。
如果您能通过咨询表与我们联系,我们将非常感激。

联系我们