執筆に用いるAIアシスタントがユーザーに与える影響が明らかに!
3つの要点
✔️ 言語モデル搭載のライティングアシスタントがユーザーの意見と執筆内容に与える影響を調査
✔️ 1506人の参加者と500人の審査員による大規模なオンライン実験を実施
✔️ 言語モデルの使用が、ユーザーの意見と文章に無意識に影響を与えていることが確認された
Co-Writing with Opinionated Language Models Affects Users' Views
written by Maurice Jakesch, Advait Bhat, Daniel Buschek, Lior Zalmanson, Mor Naaman
(Submitted on 1 Feb 2023)
Comments: Published on arxiv.
Subjects: Human-Computer Interaction (cs.HC); Artificial Intelligence (cs.AI); Computation and Language (cs.CL)
code:
本記事で使用している画像は論文中のもの、紹介スライドのもの、またはそれを参考に作成したものを使用しております。
はじめに
近年、GPT-3のような大規模言語モデルは人間の生活の一部となりつつあり、こうした側面から日常的なコミュニケーションに大規模言語モデルを使用することが人々に与える影響について調査する研究が増加しています。
特に生成AIに関する研究では、広告などのコンテンツ生成を自動化・最適化する言語モデルに含まれるステレオタイプやバイアスが、特定の文化価値を他のものよりも支持してしまう問題なども発見されており、こうした業務にAIを用いることの危険性が明らかにされてきています。
同じように、こうした言語モデルが執筆作業のアシスタントとして使用される機会が増加している反面、言語モデルによって生成された文章がユーザーにどのような影響を与えているかはほとんど検証されてきていませんでした。
本稿では、こうした背景から言語モデル搭載のライティングアシスタントがユーザーの意見と執筆内容に与える影響を調査するために、1506人の参加者と500人の審査員による大規模なオンライン実験を実施し、ロジスティック回帰モデルに基づいて詳細な分析を行った論文について解説します。
Methods
本論文では、言語モデル搭載のライティングアシスタントを使用した執筆作業がユーザーの文章を変化させ、個人の意見に影響を与えるかどうかを調べるために、1506人の参加者を対象に模擬的なオンラインディスカッションでソーシャルメディアの投稿に回答するように求めるオンラインでの実験を行いました。
本実験のディスカッショントピックは「Is social Media Good for Society?(ソーシャルメディアは社会にとって良いのか)」であり、ユーザーはこれに対して肯定的または否定的な回答を行いました。
また、ライティングアシスタントに用いられる言語モデルは、どちらか一方の主張を支持する文章を生成するように設定されており、比較対象としてライティングアシスタントを用いないグループ(=コントロール群)にも同じ条件で実験を行ってもらいました。
実験デザイン
本実験を行うにあたって筆者たちは、下図のようにソーシャルメディアのディスカッションページのモックアップ・テキストエディタ・ライティングアシスタントを組み合わせたカスタムプラットフォームを作成しました。
参加者は以下の3つのグループにランダムに分けられ、上記プラットフォームの記入欄に自分の考えを5文以上書くように求められました。
- Control group: ライティングアシスタントなしで回答したグループ
- Techno-optimist language model treatment: ソーシャルメディアが社会にとって良いものであると主張するように設定された言語モデルを用いて回答したグループ
- Techno-pessimist language model treatment: ソーシャルメディアが社会にとって悪いものであると主張するように設定された言語モデルを用いて回答したグループ
また、本実験に用いるライティングアシスタントの言語モデルにはGPT-3を使用し、sampling temperature=0.85に設定することで、多様で創造的な文章を生成するように設定しました。
評価方法
投稿された回答を評価するために、参加者の書いた文章を分割し、それぞれの文章で主張された意見をクラウドワーカーに評価してもらいました。
各クラウドワーカーは25個の文章を担当し、それぞれの文章がソーシャルメディアが社会にとって良いものであると主張しているか・悪いものであると主張しているか・良いものと悪いものの両方であると主張しているかを評価しました。
加えて、ライティングアシスタントを使用した執筆作業による意見の変化を評価するため、参加者はライティングタスク後に「ソーシャルメディアは社会にとって良いものだと思いますか?」という質問に回答しました。
Results
本実験では、はじめに参加者のソーシャルメディアへの投稿の内容を分析し、次に、言語モデルが参加者の意見に影響を与えたかどうかをロジスティック回帰モデルに基づいて分析しました。
言語モデルとのやり取りは参加者のライティングに影響を与えたか?
下図は、縦軸が参加者がソーシャルメディアへの投稿に対して支持する意見の言語モデル(上)・批判的な意見の言語モデル(下)・中立的な意見の言語モデル(中央)のどれを使用したか、横軸が参加者がソーシャルメディアが社会にとって良いものとする意見(オレンジ)・悪いものとする意見(青)・中立的な意見(白)のどれを主張したかの頻度を示しています。
注目すべきは、ソーシャルメディアを支持するモデルを用いて回答した参加者は、投稿の中でソーシャルメディアが社会にとって良いものであると主張する傾向が見られたことです。(逆も同様)
具体的には、ソーシャルメディアを支持するモデルを用いて回答した参加者は、コントロール群よりも2.04倍ソーシャルメディアが良いものだと主張する可能性が高く、ソーシャルメディアを批判するモデルを用いて回答した参加者は、コントロール群よりも2.0倍ソーシャルメディアは悪いものだと主張する可能性が高い結果が得られました。
本結果より、使用した言語モデルが参加者に影響を与えたことで、参加者の回答がモデルの指示する意見に沿った内容になったと推察できます。
言語モデルとのやり取りは参加者の意見に影響を与えたか?
次に、言語モデルとのやりとりがタスク後の「ソーシャルメディアは社会にとって良いものだと思いますか?」という質問で表明された参加者の意見に影響を与えたかを分析しました。
分析結果は下図のようになり、縦軸は先ほどのグラフと同様で、横軸が「ソーシャルメディアは社会にとって良いものだと思いますか?」という質問への回答結果になります。
この実験においても先ほどと同様、ソーシャルメディアを支持するモデルを用いて回答した参加者は、質問に対してソーシャルメディアを肯定する回答をする傾向が見られました。(逆も同様)
このように、言語モデルとのやりとりが参加者の文章だけでなく、考えにも影響を与えていることが分かりました。
参加者は、自分の文章が言語モデルに影響を受けていることを認識できていたか?
最後に、参加者自身が自分の文章や考えが言語モデルによって影響を受けていることを認識できていたかを確認する質問を行いました。
回答結果は下図のようになり、縦軸が参加者自身の意見を支持する言語モデルを使用していたかどうか、横軸が「言語モデルによって自分の意見が影響を受けたか?」という質問への回答結果になります。
本結果より、自分の意見を支持する言語モデルを使用した参加者ほど、そのモデルが自分の意見に影響を与えたと回答する傾向が見られました。
一方、全体として言語モデルが自分の意見に影響を与えたことを認識している参加者は少なく、参加者は無自覚のうちに言語モデルの影響を受け、文章や考え方がモデルの支持する内容になってしまったと推察できる結果となりました。
まとめ
いかがだったでしょうか。今回は、言語モデル搭載のライティングアシスタントがユーザーの意見と執筆内容に与える影響を調査するために、1506人の参加者と500人の審査員による大規模なオンライン実験を実施し、ロジスティック回帰モデルに基づいて詳細な分析を行った論文について解説しました。
筆者は本論文の実験結果より、特定の考え方に偏った言語モデルとの相互作用がたとえ意図していなかったとしてもユーザーの意見に影響を与えることを警告しており、より一層大規模言語モデルの使用に対して慎重にならなければいけないと言えるでしょう。
一方で、今回の実験は言語モデルが1つのトピックに対する参加者の見解に影響を与えるかどうかをテストしたものであり、こうした現象が他のトピックに一般化するのか、またどの程度持続するのかなどをさらなる研究で調査する必要があるため、今後の進展に注目が集まります。
今回紹介した実験の分析結果の詳細は本論文に載っていますので、興味がある方は参照してみてください。
この記事に関するカテゴリー