最新AI論文をキャッチアップ

顔認識における人種バイアスをいかに軽減するか?人種差別に強化学習で挑む「RL-RBN」

顔認識における人種バイアスをいかに軽減するか?人種差別に強化学習で挑む「RL-RBN」

privacy

3つの要点
✔️ Deep Q-Learningによって顔認識における人種バイアスを軽減するモデル「RL-RBN」を提案
✔️ 人種バイアスの影響に考慮したデータセット「BUPT-Globalface」「BUPT-Balancedface」を提供   

✔️ 人種を考慮した学習用データセットとRFWに関する広範な実験によるRL-RBNの有効性を証明

Mitigating Bias in Face Recognition using Skewness-Aware Reinforcement Learning
written by Mei WangWeihong Deng
(Submitted on 5 Nov 2019)

Comments: Published by CVPR2020
Subjects: Computer Vision and Pattern Recognition (cs.CV)

概要

2015年以降、ディープラーニング技術の恩恵を受けて、顔認識も世界的に導入が進み、入出国管理や警察の捜査などあらゆる場所で利用されています。日本でも2019年を顔認証元年と呼び、昨年から顔認識技術への注目が再燃しています。しかし、一方でEUや公民権団体、アメリカの一部の州・都市では、顔認識技術の技術的及び倫理的な問題点が指摘されてきました。

AI技術を提供する主要プレイヤーであるGoogleも同様の懸念から、2018年には顔認識の技術的及び倫理的な問題が解消されるまでは汎用的な顔認識サービスの提供を停止することを表明しています。また、2020年1月にはAAAI/ACM AI Ethics and Society conference 2020で「Saving Face: Investigating the Ethical Concerns of Facial Recognition Auditing」という論文を発表しています。特に問題とされているのは、顔認識モデルに内在している性別や人種に関するバイアスです。顔認識システムが国や警察組織でも提供されているため、バイアスによる誤認識で非白人に不利益が出ることが懸念されてきました。

このような状況で発生したのが、2020年5月に起こった米ミネアポリスの白人警察官による黒人死亡事件です。この事件をきっかけに顔認識AIへの懸念が急速に高まり、IBM、Amazon、Microsoftが相次いで顔認識サービスの全てあるいは一部を撤退、利用停止としました。

  • 2020年6月8日|IBM
  • 2020年6月10日|Amazon
  • 2020年6月11日|Microsoft

顔認識におけるバイアスな主な原因は、学習データとアルゴリズムの2つです。1つ目の学習データでは、顔認識の場合、CASIA-WebFace、VGGFace2、MSCeleb-1Mなどの大規模データセットがよく使われていますが、これらはGoogle画像などのWebサイトをスクレイピングして構築されています。そのため、収集されるデータは無造作であり、性別、人種などの構成割合などはコントロールされていません。このように、学習に使われるデータセットにバイアスがあれば、学習されるモデルもバイアスが発生します。

次に2つ目のアルゴリズムでは、顔認識の場合、
Sphereface、Cosface、Arcfaceがよく使われていますが、これらはクラス間にマージンを適用し、学習データに対して全体的な予測精度が最大になるように学習されます。
そのため、学習データにおいて、特定のクラスの構成割合が大きい場合、精度を最大化するために、高頻度に現れるクラスに対して学習を最適化します。つまり、学習データに含まれるバイアスと同じ傾向で、テストデータに対する精度も向上します。

この論文では、特に人種バイアスに対するこれらの問題に対処するために2つのことに取り組んでいます。

  • 人種バイアスの検証に適したデータセットを提供
  • DQN(Deep Q Network)によって顔認識における人種バイアスを軽減するモデルの提案

1つは、人種バイアスを制御した学習データセットの作成です。この論文ではBUPT-GlobalfaceとBUPT-Balancedfaceの2つを公開しています。BUPT-Globalfaceは実際の世界の人種構成割合にしたがって作成されており、BUPT-Balancedfaceは全ての人種のサンプル数が等しくなるように作成されています。

もう1つは、強化学習によってクラス間のマージン動的に調整する仕組みを導入した新しいモデル「RL-RBN」の提案です。この仕組みによって、学習データのバイアスを緩和し、クラス間の認識精度のバイアスを軽減させています。

このモデルでは、まずDeep Q-Learningを応用して非白人のクラス間マージンを適切に設定可能なPolicyAgentに学習させます。ここでは強化学習におけるRewardが人種ごとのクラス内/クラス間のマージンで調整するように設計されています。次にこのAgentが顔認識モデル(RL-RBN)のStateに応じてマージンを調整しながらを学習が進んでいきます。この結果、人種ごとの認識性能が等しくなるようにクラス内/クラス間のマージンが調整された、汎用性の高いモデル(RL-RBN)が得られます。

続きを読むには

(8247文字画像18枚)

AI-SCHOLARに
登録いただく必要があります。

1分で無料で簡単登録する

または
Takumu avatar
インターネット広告企業(DSP、DMP etc)や機械学習スタートアップで、プロジェクトマネージャー/プロダクトマネージャー、リサーチャーとして働き、現在はIT企業で新規事業のプロダクトマネージャーをしています。データや機械学習を活用したサービス企画や、機械学習・数学関連のセミナー講師なども行っています。

記事の内容等について改善箇所などございましたら、
お問い合わせフォームよりAI-SCHOLAR編集部の方にご連絡を頂けますと幸いです。
どうぞよろしくお願いします。

お問い合わせする