説明可能性とはなにか?NLPにおける説明可能AIの現状を徹底解説!
3つの要点
✔️ 自然言語処理における説明可能AIについて
✔️ 説明可能な自然言語処理モデルの現状について
✔️ 説明可能性の実現に向けた課題について
A Survey of the State of Explainable AI for Natural Language Processing
written by Marina Danilevsky, Kun Qian, Ranit Aharonov, Yannis Katsis, Ban Kawas, Prithviraj Sen
(Submitted on 1 Oct 2020)
Comments: Accepted at AACL-IJCNLP2020
Subjects: Computation and Language (cs.CL); Artificial Intelligence (cs.AI); Machine Learning (cs.LG)
はじめに
近年大きな成功を収めている深層学習モデルは、そのモデルの判断基準の解釈が困難である(ブラックボックスである)という問題を抱えています。
こうした説明可能性の不足は、そのモデルを利用するユーザーからの信頼性を損なうことにも繋がります。
そのため、深層学習モデルの判断の理由・根拠を明らかにする、説明可能AI(Explainable AI/XAI)の研究が近年重要視されています。この説明可能AIの研究は非常に重要な課題でありながら、新しい領域であるために体系的な知識を得ることが困難です。
こうした情報の不足を鑑みて、本記事では自然言語処理における説明可能AIの現状をまとめました。説明可能AIに興味のある方はぜひご覧ください。
目次
1.説明可能AIの大まかな分類
・ローカル/グローバル
・自己説明/事後説明
2.説明可能AIに用いられる技術の詳細
2.1.説明可能性の技術
・Feature importance
・Surrogate model
・Example-driven
・Provenance-based
・Declarative induction
2.2.説明可能性の技術の関連技術
・First-derivative saliency
・Layer-wise relevance propagation
・Input perturbations
・Attention
・LSTM gating signals
・Explainability-aware architecture design
2.3.説明可能性の可視化技術
・Saliency
・Raw declarative representations
・Natural language explanation
3.説明可能性の評価
3.1.評価の分類
・Informal examination of explanations
・Comparison to ground truth
・Human evaluation
・その他
3.2.何が説明可能なのか?
4.実際の研究事例のまとめ
続きを読むには
(7061文字画像9枚)AI-SCHOLARに
登録いただく必要があります。
この記事に関するカテゴリー