最新AI論文をキャッチアップ

ChatGPTを用いたメディアバイアス検出の可能性と限界

ChatGPTを用いたメディアバイアス検出の可能性と限界

Large language models

3つの要点
✔️ メディアバイアスを検出する手法の包括的な研究とその限界の調査
✔️ ChatGPTのバイアス検出能力の検証と比較:メディアバイアスの識別能力に焦点を当てた実験を実施し、特定のタスク(例えば、ヘイトスピーチの検出)で良好な結果を示す
✔️ 性別や人種のバイアスの識別など、より深い背景理解が求められる分野ではファインチューニングされたモデルに劣ることを確認

ChatGPT v.s. Media Bias: A Comparative Study of GPT-3.5 and Fine-tuned Language Models
written by Zehao Wen, Rabih Younes
(Submitted on 29 Mar 2024)
Comments: Published on arxiv, published on Applied and Computational Engineering
Subjects: Computation and Language (cs.CL); Artificial Intelligence (cs.AI)

code:

本記事で使用している画像は論文中のもの、紹介スライドのもの、またはそれを参考に作成したものを使用しております。  

概要

デジタル時代の到来により、情報が瞬時に世界中に拡散されますが、これには様々なバイアスが含まれることも珍しくありません。特定の視点を選択的に提示する「メディアバイアス」は、人々の事件や問題に対する認識を形成し、民意に大きな影響を与えることがあります。実際に、多くの人が大手メディアがバイアスを持っていると感じており、この問題の調査が急がれています。

この論文では、メディアバイアスの検出と理解にAI技術をどのように活用できるかを調査しています。人間の評価者による手動のコンテンツ分析から、機械学習や自然言語処理技術を利用した計算手法まで、メディアバイアスを特定する方法は多岐にわたりますが、これらの手法には限界があります。例えば、これまでよく研究されている特定の政治的バイアスやフェイクニュースに焦点を当てたアプローチでは、バイアスに寄与する言語の微妙なニュアンスを捉えることや拡張性に課題があります。 

この中で、OpenAIが開発した大規模言語モデル「ChatGPT」の活用が注目されています。ChatGPTは、GPT-3.5というエンジンをベースとして、翻訳や感情分析、推論、要約といった多様な自然言語処理タスクで顕著な能力を示しています。この論文では、ChatGPTを用いて、メディアバイアスの識別能力を検証し、その精度を向上させる方法を探求しています。また、ChatGPTの性能は、BARTなどのファインチューニングされた言語モデルと比較されています。

メディアバイアスの今後の研究に向けて、ChatGPTが人種的バイアス、性別バイアス、認知バイアスなど、複数のバイアスを識別する能力に関する貴重な洞察を提供しています。

実験設定

この論文では、メディアバイアスの特定と評価を目的とした実験を行います。使用するデータは、Media Bias Identification Benchmark(MBIB)から選ばれたもので、このデータセットはWesselらによって編纂されています。MBIBは、異なるメディアバイアス検出技術を評価するために特別に設計された、115のデータセットから成る包括的なデータセットです。この中から、メディアバイアス検出技術を評価するために9つのタスクと22の関連データセットが選ばれています。

また、これらのデータは、異なるタスクに応じて適切に前処理が施され、ラベルは二値形式に変換されています。これにより、異なるデータセットを統合しやすくなり、タスクの形式を単純化します。特に、連続ラベルのデータセットには、著者が推奨する閾値を用いて二値化が行われています。

ここでは、MBIBに含まれる9つのタスクのうち、特に6つに焦点を当てており、それぞれのタスクでメディアバイアスを検出するChatGPTの能力を広範囲に評価しています。

選択されたタスクに関連するデータセットは、そのサイズに応じて学習用とテスト用のサブセットに比例して分割されます。ほとんどのバイアス識別タスクでは、データセットに80-20の訓練-テスト分割が採用されていますが、認知バイアスとヘイトスピーチのタスクに含まれる大量のデータ(例えば200万例)のため、これらのデータセットの10%を無作為に選択し、その後80-20の分割を行います。各タスクにおいて採用されたサイズが下のとおりです。

また、メディアバイアスの検出能力におけるChatGPTの性能を評価するために、高く評価されている3つのモデル(ConvBERT、BART、GPT-2)を比較対象として選定しています。これらは自然言語処理(NLP)の様々なタスクで優れた成果を示しています。これらのモデルは、上述の学習データセットを用いて、各バイアス識別タスクに対してファインチューニングされていますこれらのモデルのパフォーマンスは、テストデータセットにおいて評価され、ChatGPTの結果と比較されています。

また、ChatGPTとしては、効率とコストのバランスに優れるGPT-3.5-turbo版ChatGPTを採用しています。結果の再現性を高めるため、モデルの動作を決定論的にする設定、つまりモデルの温度をゼロに設定して、同じプロンプトに対して常に同じ反応を出すようにしています。プロンプトの設計方法は先行研究からアイデアを得ており、ChatGPTに6種類のバイアス識別タスクごとにその能力を最大限に引き出すための簡潔なプロンプトを3つ生成させています。

例えば、人種的バイアスの識別に関するクエリは次のようになります。「与えられたテキストに人種的バイアスが含まれているかどうかを識別するために、あなたの能力を最大限に引き出す3つの簡潔なプロンプトを提供してください。」

これらのプロンプトは、元のデータセットから選ばれた限定的な例(60例)で試され、異なるデータセットからランダムに選ばれた例を用います。各タスクのプロンプトは、バイアスの存在を示す肯定的ラベル付き例と不在を示す否定的ラベル付き例が均等に含まれています。これにより、最も効果的なプロンプトを選定しています。結果は下表のとおりです。

さらに、モデルが自動処理可能な方式で応答するよう、タスクプロンプトには特別な指示が付されています。この指示により、モデルは出力をJSON形式で提供し、「bias」列を含むことで、テキストにバイアスが存在するか否かを1または0で示します。このプロセスは、バイアス識別の精度を向上させるとともに、その方法の標準化にも寄与しています。

実験結果

ここでは、6つのメディアバイアス識別タスクにおいて、ChatGPTと他のファインチューニングされたモデルの性能を比較することで、ChatGPTの性能を包括的に評価しています。この評価は、様々な文脈でのバイアスの認識と緩和の効果を理解し、よりバランスの取れたAIシステムの開発に貢献するために不可欠です。特定の評価指標を用いてモデルの性能を分析することで、それらの強み、限界、そして改善の可能性についての洞察を提供しています。

MBIBによって推奨されている通り、2つの指標を使用しています。1つは、Micro Average F1-scoreです。モデルが全テストセットで行った予測に基づいて1つのF1スコアが算出されます。この方法は、各例がどのデータセットから来たかの変動を無視します。この指標はモデルの全体的なパフォーマンスを容易に把握するために有効です。もう1つは、Macro Average F1-scoreです。テストセット内の個々のデータセットごとにF1スコアが計算され、その結果を平均化してマクロ平均スコアが得られます。このアプローチは、データセットのサイズに関わらず、すべてのデータセットが最終スコアに均等に貢献することを保証します。 

ChatGPTと、ファインチューニングされたモデルの性能は、下表のようになっています。

全体的に、BART、ConvBERT、GPT-2といったファインチューニングされたモデルが、バイアスの特定において一般的に優れた性能を示しています。これは、これらのモデルが人間のラベラーが認識するバイアスのパターンに適応するよう学習されているためと考えられます。一方で、ChatGPTのゼロショットアプローチは、広範囲のデータパターンのみに依存するため、バイアス識別の精度が低下することが確認されています。

特に性別や人種のバイアスに関して、ChatGPTはファインチューニングされたモデルに比べて顕著に劣っており、多くの場合に偽陽性を示しています。例えば、ある発言をChatGPTが性別バイアスがあると誤って解釈する一方で、人間の評価者や他のモデルはそれを中立と見なすことがあります。例として、"I can't stand a Yankee voice commentating on football. CRINGE," という発言があり、ChatGPTはこれを「フットボールの解説が男性支配的な分野であると想定することで性別の役割を強化する」と説明してバイアスがあるとラベル付けします。この過敏な反応は、学習過程で特定の言葉やフレーズに対するステレオタイプやバイアスが結びつけられた結果と考えられます。このケースでは、「Yankee voice」をフットボールの解説が主に男性によって行われるという仮定と関連付けています。

さらに、認知バイアスやフェイクニュースの検出では、ChatGPTはBARTやConvBERTなどのモデルと比較して大幅に劣っています。これらのタイプのバイアスは文脈や細やかな言語のニュアンスに深く依存しており、単純なゼロショット学習では対応が難しいためです。フェイクニュースの場合、その曖昧でしばしば欺瞞的な性質が、言語的な手がかりだけでは真実との区別を困難にしています。

しかし、ヘイトスピーチの検出においては、ChatGPTも比較的良好な結果を示しています。ヘイトスピーチはその露骨で攻撃的な言語パターンにより、識別が容易であるため、ゼロショットモデルでも有効なパフォーマンスを発揮できていると考えられます。 

テキストレベルでのコンテキストバイアスを検出するタスクでは、ファインチューニングされた手法と同等の結果を示しています。これは、ChatGPTの広範なアーキテクチャが、人間のコミュニケーションの微妙な意味を捉えるのに特に適しているためかもしれません。この大規模なモデルは、包括的な訓練を通じて、言語の多面的な理解を獲得しています。その結果、ChatGPTはコンテキストが言語に与える影響を洞察し、解釈する能力を持っています。

しかし、この研究における全モデルのパフォーマンスは、利用可能なデータセットの質によって大きく影響を受けています。例えば、モデルはデータ例が少ないデータセットでは苦戦する一方で、より多くの例を含むデータセットでは優れたパフォーマンスを示しています。データの量が限定的であるため、これらのマクロ平均スコアがモデルの真の能力を完全に反映しているわけではない可能性があります。

結果として、ChatGPTはある程度の習熟度を示していますが、現在の形ではメディアバイアスの決定的な検出器として機能するかどうかは明確ではありません。ただし、少数のプロンプトを用いたテストが行われることで、その性能が向上するかもしれません。このアプローチは、ChatGPTのデータセットにおける一貫性を保つためにさらなる検証が必要です。

まとめ 

この論文では、ChatGPTのメディアバイアス検出能力を、他のファインチューニングされたモデル(BART、ConvBERT、GPT-2)と比較しています。ChatGPTはヘイトスピーチとテキストレベルのコンテキストバイアスの識別で顕著な成果を示していますが、性別や人種、認知バイアスといったより深い文脈理解を要するタスクでは性能が劣っていることがわかりました。

大規模言語モデルが言語理解において達成している進歩を示しつつも、文脈やバイアスに関するより繊細な理解にはまだ課題があることを浮き彫りにしています。バイアスの主観性やChatGPTが学習されたデータの性質が、これらのモデル間のパフォーマンス差に影響を与えている可能性があると指摘されています。

今後の論文では、少数ショットのプロンプトや人間による評価を含む新たなアプローチを用いて、これらのモデルの能力をさらに向上させることが期待されます。この論文は、AIの将来の発展とその社会的な影響に対する洞察を提供しています。

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!
Takumu avatar
インターネット広告企業(DSP、DMP etc)や機械学習スタートアップで、プロジェクトマネージャー/プロダクトマネージャー、リサーチャーとして働き、現在はIT企業で新規事業のプロダクトマネージャーをしています。データや機械学習を活用したサービス企画や、機械学習・数学関連のセミナー講師なども行っています。

記事の内容等について改善箇所などございましたら、
お問い合わせフォームよりAI-SCHOLAR編集部の方にご連絡を頂けますと幸いです。
どうぞよろしくお願いします。

お問い合わせする