AIにより「気分」のターゲティングが可能に。広告の最先端とは。

デジタル広告はジャーナリズムビジネスにとって、頼りにならない収入基盤であることが明らかになりつつある昨今ですが、賢明なメディアの多くは、デジタル広告に代わる、あるいはそれに加えた新たな収入の道を積極的に探り始めています。

そんな収益モデルの再構築という大きなトレンドを考える中で今後欠かせないのは、テクノロジーの進展、特にAI(人工知能)が与えるインパクトでしょう。AIを巡る動きはジャーナリズムでも加速しており、未来の話などではなく、いかにして競争力に直結させられるか、というフェーズに突入しています。

そんな中、「読者たちの感情や気分に合わせて広告を表示する」そんな広告プロダクトをニューヨーク・タイムズ(The New York Times)やESPN、そしてUSAトゥデイ(USA Today)といったメディアが近年展開しています。

目次
1AIにより記事を読んだ人の「気持ちの推定」が可能に
2各社の戦略と新たな可能性
3反応をリアルタイムで分析できる動画広告配信

 

AIにより記事を読んだ人の「気持ちの推定」が可能

AIによる感情検知(Emotional Recognition)というのは現在の流行りの分野の1つで、ビジネスをする上で人の感情のデータ分析をするのは当たり前と呼ばれる時代が訪れつつあります。

既にモバイルアプリケーションやゲーム・ロボットといった製品をはじめ、広告・エンタメ・ヘルスケア業界などにも導入が進んでいますが、そんな中、「読者たちの感情や気分に合わせて広告を表示する」といった広告プロダクトをニューヨーク・タイムズ(The New York Times)やESPN、そしてUSAトゥデイ(USA Today)などのメディアが近年展開しています。

従来のアドテクノロジーは主に「行動履歴分析」をベースにして「どのページを見たか」という行動を基に、マッチングする構造でしたが、こういった望んでいないのに強制的に表示される広告はユーザーにストレスを与え、広告がメディアのブランド価値を下げてしまうデメリットなどがありました。

しかしAIによる感情検知によって、 コンテンツの”どの部分を好み” “どの部分を嫌うのか”というような詳細な検証ができるようになり、コンテンツと ユーザーのミスマッチを削減できるほか、 広告では成約率の向上などが見込めます。(年齢や性別といった)属性やユーザーの行動に基づいたターゲティングが、使い古された手法となりつつある現在、広告の観点から考えると、イメージや感情を理解した広告プラットフォームには面白みがあり、人々の気分や感情をターゲットするというのは、はるかに巧妙な消費者操作であると言えるでしょう。

各社の戦略と新たな可能性

トレーニングに用いられる記事。例えば、「飼い主を探している犬が奇跡を起こした」という記事は、多くの人に「愛情」「嬉しい」という感情を喚起させることが予想できますが、一方でハエなどの感情喚起が難しそうなカテゴリーの記事も、アンケートに入れてデータにする必要があります。

二ューヨーク・タイムズは今年初頭にプロジェクトフィールズ(Project Feels)というツールをローンチしました。
これを使う事によって、広告主たちが、コンテンツが呼び起こすと予想される感情に基づいて、広告のターゲットを選定でき、広告が表示されるコンテンツに関連性​​の高い広告を配置できるようになることを目指します。

“喜び”、“驚き”、“混乱”、“悲しみ”、“嫌悪”、“恐れ”といった人間の微細な感情を分類することが可能で、以前では判断できなかったものを定量的に確認することができるため、ターゲティングの最適化や広告予算の分配などの新たな指標になります。

感情カテゴリーとしては、一番予測値が高かったのが「悲しい」次に「怖い」「嫌い」「愛情」で、75%以上の精度だったとのこと。逆に一番予測するのが難しいのが「興味深い」だったという事です。また、両極端な感情を喚起させるコンテンツなどがあることも分かり、例えば、「AIをどのように規制するか」というような記事は「面白い」と「つまらない」がずば抜けて多いことが分かり、AIに対する関心の開きが浮かび上がってきます。

このプロジェクトでは、まず、適切なデータセットを作成するために1,200人以上の読者を調査し9種類の感情グループを用意しました(つまらない、嬉しい、嫌い、怖い、興味深い、希望、愛情、悲しい、何も感じない、など)。次に上記の様なハエなどの記事を見せて、回答者に一連の記事を読んでいるときの気持ちを尋ね、上記で収集したさまざまな「感情カテゴリ」とマッチングさせます。アクティブランニングの手法を使っていて記事サンプルを無作為に選び、バッチにしてモデルの精度をその都度見ていき、精度がこれ以上は上がらない、というところにくるまでサンプルデータを変えていきます。

 

また、USAトゥデイの場合、2016年にコンテンツをトピックとトーンに基づいてカテゴライズし、それぞれのコンテンツがどのような感情を喚起させるかを評価する取り組みを行っています。

そして昨年、この知識に基づいたレンズターゲティング(Lens Targeting)と呼ばれる広告プロダクトの販売を開始しました。記事が呼び起こす感情と広告パフォーマンスの関連性を提示することが狙いだといいます。このプロジェクトは成功し、感動を与えるような記事を読んでいるユーザーをターゲットにした非営利団体の広告キャンペーンは、ターゲットしていない広告と比べると25%も高い寄付率に至ったといいます。

更に、調査によりポジティブなニュース記事もネガティブなニュース記事も等しくオーディエンスの関心を引きつけていることが分かりました。ニュースを広告主が敬遠しがちなのは、ブランドや読者との関連でネガティブな連想を生むかもしれないからだと考えられていましたが、ニュースカテゴリー自体を敬遠する必要性もないかもしれません。これは広告主たちへの売り込みにも活用されている調査結果です。

反応をリアルタイムで分析できる動画広告配信

視聴者の感情を直接分析できる動画広告配信サービスが登場し、先行導入事例では利用意向が128%上昇するという高いパフォーマンスを発揮し、成果を上げている企業もあります。

米国を拠点とするGlassViewは、直接取引によってプレミアムなメディアを確保し、媒体側が持つデータを活用することにより精度の高いターゲティングを行う動画広告型ソルーションを提供する会社です。

同社は、英国発のベンチャー企業RealEyes社のAIを用いた顔認識技術を活用することで、視聴者の“感情”をもとに動画広告の効率化を実現する、新しいマーケティングテクノロジーサービス『GlassView Emotion』を開始し始めました。

「RealEyes」は、個人が持っているweb端末のカメラを通して、映像コンテンツを見た視聴者の表情から“感情”をAIを用いた顔認識技術によって測定・分析することができ、このサービスでは、動画広告を見ている視聴者の一つ一つの微細な顔の動作を、基本的な感情指標5つに分類し、リアルタイムに反応を確認することが可能です。
そしてその結果は、ほぼリアルタイムでダッシュボードに反映され、動画中の「どの瞬間に一番いい反応をしているか」といった、反応を定量的に把握することができるため、ユーザーの気分の展開に応じた広告を表示することが可能となります。
また、広告主・代理店はキャンペーン途中であっても、それらの結果に基づいてターゲティングの最適化や視聴者の反応がよかったクリエイティブへの投資を再配分するなど、より効率的なメディアプランニングを行うことが可能になります。

このような感情検知により、ユーザーにとって最適な広告をマッチングさせることが可能になれば、収益の大幅な増加も見込めるでしょう。
広告モデルが行き詰まりを見せる中AIはその突破口となり得ることはできるのでしょうかーーー?