Saving Face:顔認証技術の審査における倫理的懸念
3つの要点
✔️ 現状のベンチマークテストにおける顔処理技術の審査に関する懸念点を明示
✔️ 特に交差性(Intersectionality)を考慮した独自データセットを用いてプライバシーとバイアスに関する問題を明示
✔️ 商用提供されているAmazon, Microsoft, ClarifaiのAPIを対象に検証
Saving Face: Investigating the Ethical Concerns of Facial Recognition Auditing
written by Inioluwa Deborah Raji, Timnit Gebru, Margaret Mitchell, Joy Buolamwini, Joonseok Lee, Emily Denton
(Submitted on 3 Jan 2020)
Comments: Publised by AAAI/ACM AI Ethics and Society conference 2020
Subjects: Computers and Society (cs.CY)
顔処理技術には次のようにさまざまなタスクがあります。
顔検出 | Bounding Boxで画像から顔の位置を特定 |
---|---|
顔分析 | デモグラ情報を含む顔の特徴量を算出 |
顔認証・識別 | 特定の顔情報を他の顔情報と比較/区別 |
これらの技術は「笑顔検出による顧客満足度の計測」や「ターゲット集団のデモグラ推定」「顔識別による個人のトラッキング」など幅広い用途で利用されています。
そして、これらの技術を積極的に推進している企業では「ユーザー理解のため」「人間活動のモニタリング/検出によるインサイト獲得のため」「画像データのラベリングと検索による業務効率化のため」「生体情報を使用した認証/識別による高セキュリティ実現のため」などの有用性を提案していることが多いかもしれません。
もちろんこれらは嘘ではありませんが完璧なものとも言えません。実際にさまざまな不正利用や誤用が報告されており、相当の脆弱性とリスクがあることがわかっています。
特に政府や警察による監視や採用など公平性・客観性が求められる場面で使用される場合はモデル学習に使われているデータに注意が必要です。このような重要な判断を下す機関ではバイアスのない顔処理技術が求められます。特定の人種や性別に対して不当な判断がされてはいけません。
このような公的な機関に対して技術提供しているAmazonやHireVueでは公平性・客観性に対して大きな責任を負っていうことになります。誤った判断が発覚し、多大な影響を及ぼす可能性があり、非常に大きなリスクを負っていることになります。
このような状況に対して公民権組織は、顔処理技術に対する警告とその使用を制限する緊急政策・規制措置の必要性を表明しています。
米国のいくつかの州や都市(カリフォルニア、ワシントン、アイダホ、テキサス、イリノイ、サンフランシスコ、オークランド、サマービルなど)ではACLU’s Community Control Over Police Surveillance (CCOPS) などを通じて、顔処理技術の使用規制または全面的禁止をしようとしています。
この論文が執筆されている時点でも、アメリカでは「Algorithmic Accountability Act」「Commercial Facial Recognition Privacy Act」「No Biometric Barriers Act」などの連邦法案が提案されています。イギリスなどEUでも顔処理技術のルール整備ができるまで実用を禁止する法案が検討されています。
そして、これらの提案はいずれも国立標準技術研究所(NIST)によって開発されてたGender Shadeやベンチマークの結果を認定基準にすること推奨しており、この認定基準を満たしている技術は実用に耐えうる安全な技術であるとしています。
しかし、この論文では、現在の認定基準・審査方法も完全なものではなく、まだ倫理的な懸念事項があることを示しています。この論文では次の2つのことを行っています。
- 有名人の顔画像で新しい顔DB(Intersectional Celeb-SET)を開発し、商用で公開されている顔処理APIの適用性を評価
- アルゴリズム監査をする上で懸念される倫理的に考慮事項、倫理的なジレンマの説明
続きを読むには
(10112文字画像8枚)AI-SCHOLARに
登録いただく必要があります。
この記事に関するカテゴリー