バイアスなきAIを作る難しさ~AIより浮き彫りになる人間の差別意識

 

総合学術雑誌・ネイチャーは、人工知能(AI)による性差別や人種差別が深刻な社会問題として浮上しているとし、AIの学習にはさまざまデータが使用されますが、その際に、特定の性別・民族・文化を代表するものに偏ってしまい、人間社会の不平等がデーターにも反映され始めていると警鐘を鳴らします。

 

目次
(1)mazonが開発を進めてきたAIに差別的傾向にある事が判明
(2)元マイクロソフト社員が暴いたAIの「人種偏見」
(3)データを学習するAIは、偏見や差別も一緒に学んでしまう
(4)ブラックボックスの問題
(5)AIにより人間の差別意識が浮き彫りに

パフォーマンスの評価や退職傾向の予測などから始まり、最近では、採用面接にもAIが活躍し始めています。

例えば三菱総合研究所は、新規採用のエントリーシートの選考をAIで行うサービスを提供し始めました。
このサービスでは、エントリーシートをAIによる選考と人による選考を比較した結果、AI選考による候補者の方が、最終面接に残る確率が2倍高かったという結果を出しました。
人事部の負担も減り、選考の正確性も上がるならば、このシステムは非常に優れているように思えるかもしれませんが、一方でこのシステムには危険性も危惧されます。

Amazonが開発を進めてきたAIに女性差別的傾向がある事が判明

 

米アマゾン・ドット・コム(AMZN.O)が期待を込めて開発を進めてきたAI(人工知能)を活用した人材採用システムに女性差別的傾向があるという欠陥が見つかったというニュースが話題になりました。人材採用業務に人工知能を取り入れようという動きが、企業で出始めている中、今後も物議が続きそうな話題です。アマゾンは2014年からこの採用システムを開発していましたが、2017年運用を取りやめる結果になりました。

AIを活用した採用システムの開発目的は、もちろん女性差別をすることではなかったはず。なぜ、AIは偏った判断をするようになってしまったのでしょうか?

当初、アマゾンは優秀な人材をコンピューターを駆使して探し出す仕組みを構築するため、過去10年間分の履歴書パターンを学習させ、応募者をランク付けし、採用を効率化する事がシステム開発の狙いでした。機械学習をベースにしたもので、500台ほどのコンピューターが採用希望者の履歴書に書かれているキーワードを抽出・分析し自社に適した人材を選びだすというもので、何枚かの願書をプログラムに入れると、AIが数秒で“最良”の条件を持った書類を見つけ出します。

しかし履歴書に「女性チェス部の部長」や女子大卒といった、「女性」に関する単語が履歴書に記されていると、それだけで評価が下がる傾向にあることが明らかとなりました。IT技術職の応募の圧倒的多数が男性だったため、AIが男性を採用するのが好ましいと認識したことが要因です。

今回の「アマゾンAI女性差別騒動」には、企業側の本音と建て前が隠されているのかもしれません。人間や企業側がバイアスを持っている認識がなかったとしても、データを集める際に、人間が持っている潜在的な差別意識がそのままデータに反映されてしまうのです。

元マイクロソフト社員が暴いたAIの「人種偏見」

また、マイクロソフト社員で、現在コーネル大学の博士課程に在籍するサラ・タン氏を筆頭著者として、マイクロソフト社員ら4名が、最近発表した論文には興味深い結果が示されていました。

アメリカでは、逮捕された人物がその後、また罪を犯す確率を予測するプログラムを、AIを使って開発し、実際に運用しています。
「コンパス」と呼ばれるそのプログラムの予測は、FBIの監視対象人物を選定したり、刑期を決定する際に活用されていますが、米国の非営利・独立系の報道機関であるプロパブリカは、白人と黒人では、予測のバイアスが違うというAIの傾向について指摘しました。

研究結果によると、コンパスは、白人に対しては「犯罪者を善良な人と思う間違い」をしやすいのに対して、黒人に対しては「善良な人を犯罪者と思う間違い」をしやすいことが明らかになったといいます。

また、驚くべきことに、実はこのコンパスへのインプットデータには、人種は含まれていなかったのですが、出身地域、学歴、年収等、人種と相関の高い属性がセットとなって、人種を特定した時と同じ結果を出していたといいます。

データを学習するAIは、偏見や差別も一緒に学んでしまう

AIを使うためには、大量のデータを投入して学習させることで、能力や精度を上げていくことから始めなければなりません。

しかし結局、AIは投入されたデータ以上に賢くなることはできません。そして、それこそが機械学習に特有の問題を生んでいます。アルゴリズムをトレーニングするために使用したデータによっては、AIがバイアスを持つこともあり得るからです。

コンピュータ黎明期からGIGOギゴ)という言葉があります。”Garbage In, Garbage Out”の略語で、日本語では「ゴミを入れたらゴミしか出ない」という訳になります。”入力するデータを信頼できる綺麗なものにしないと、ゴミが出るだけ”という意味で、これは人工知能においても同様の事が当てはまります。

このように学習データは量よりも質の方が大切で、特徴点がわかりやすいデータで学習させれば上達が早いのは当然ですが、逆に品質の悪いデータを食べさせると正解率が下がってしまいます。

そのため、機械学習においては、データを学習させる前にデータを変換・整理したり不適切なデータを除去したりする「データクレンジング」の作業が重要になってきます。

しかし、この作業は実に大変と言われており、データが「人間自身でも判断ができない」という基準の場合、人間が判断できるかどうかを判断するという作業になり、なかなか選り分けをロジックで自動化・効率化できず、何回も何回も結果を見ながら学習を繰り返す場合、膨大な作業量になってしまいます。

ブラックボックスの問題

また実用化が進むにつれて、「ブラックボックス」の課題が浮上しています。ディープラーニングは、機械が自ら膨大なデータを学習し答えを導き出すという特性ですが、人間が思考する際の思考レベルは数次元が限界で、AIの思考のプロセスに人間が追いつけない。という問題があります。ディープラーニング技術を採用した機械が出した答えや解決法について、どうしてその答えに至ったかという過程を、人間は理解できないのです。

米企業の間では、このAIシステムのブラックボックスを可視化し、透明性の高いアルゴリズムの開発を目指そうという動きが近年見られます。

IBM、AIのブラックボックス化解消に大きな一歩

IBMは2018年9月、AIに新たな透明性をもたらすテクノロジーを発表しました。

このソフトウェア・サービスはIBM Cloud上で実行され、AIが意思決定を行う際に自動的にバイアスを検出し、AIがどのように意思決定したかを説明し可視化することで、さまざまな企業が構築したAIシステムを自社で管理することを支援します。

このサービスは完全に自動化されており、実行時にAIの意思決定の説明とモデル内のバイアス検出を行い、潜在的に不公平な結果が起こり得ることを捕捉し、さらに検出したバイアスを軽減できるように、モデルに追加すべきデータを自動的に提案してくれます。

また、説明は分かりやすい言葉で提供され、どの因子がどの方向でどの程度決定に影響したのか、提案の信頼度、そしてその信頼度の要因を示し、モデルの精度、公平性、ならびにAIシステムのリネージュの記録を簡単にさかのぼって呼び出すことができます。

これらの機能はすべて視覚的なダッシュボードを通じてアクセスでき、AIが導き出した決定の理解、説明、管理を行う圧倒的な能力をビジネス・ユーザーに提供し、かつ専門的なAIスキルへの依存を低減します。

AIにより人間の差別意識が浮き彫りに

では私たち人間はどうなのか?

それでは、逆に私たち人間の意思決定はそれほど公平なものなのでしょうか?

そういったバイアスの問題がないのかといったら、実際これが結構またひどいものだったりします。

AIによるバイアスは、人間が持っている潜在的な差別意識がそのままデータに反映されてしまった結果です。
この問題点は、本質的にAIのシステムや設計者側にあるわけではありません。この問題から浮かび上がるのは、もともと意思決定を行っていた人間が、アルゴリズムよりもさらに大きなバイアスを持っていたということなのです。

残念ながら、何十年にも渡って行われてきた認知行動学や心理学の分野での研究によると、あらゆることに関して人間の持っている判断力の質というのは非常に曖昧で悪いものだと言われています。
このように考えると、この問題はAIや開発チームだけの問題というよりも、より大きな社会の枠組みの問題かもしれませんね。

多くの社会集団や社会制度、政策は、個々人が理性的な判断をすることを前提としている。例えば陪審員制度や裁判員制度では、裁判員が事件の不適切な特徴を無視し、適切な特徴を適切に扱い、常に別の可能性がないかを考え、誤謬に陥ることなく、公平で合理的な判断をすることが求められる。しかし認知バイアスに関する様々な心理学的実験によれば、人間はこれら全てについて失敗しうると考えられる

人間は1日に、意識的にも無意識的にも膨大な数の決断をしており、その数は成人で3万5000、子どもは3000にのぼるという。「そうした決断のうち95%は3秒以内になされ、65%が理論ではなく感情に基づいて行われる。3万5000もの決断には200のバイアスがかかっていると言われている


AIメディアライターを大募集中!

ライターとして早速働きたいライター希望で、まずは相談したいライターではなく、メディアディレクターをやりたいその他