什么是可解释性,彻底解释NLP中可解释性人工智能的现状!
三个要点
✔️ 论自然语言处理中的可解释人工智能。
✔️ 关于可解释的自然语言处理模型的现状
✔️ 实现问责制的挑战
A Survey of the State of Explainable AI for Natural Language Processing
written by Marina Danilevsky, Kun Qian, Ranit Aharonov, Yannis Katsis, Ban Kawas, Prithviraj Sen
(Submitted on 1 Oct 2020)
Comments: Accepted at AACL-IJCNLP2020
Subjects: Computation and Language (cs.CL); Artificial Intelligence (cs.AI); Machine Learning (cs.LG)![]()
![]()
介绍
近年来取得巨大成功的深度学习模型,面临着难以解释其模型标准的问题(它们是黑盒子)。
这种缺乏责任感的情况也会影响到该模式在用户中的可信度。
为此,近年来,揭示深度学习模型决策原因/理由的可解释人工智能(XAI)的研究越来越重要。虽然此次对可解释性人工智能的研究是一个非常重要的课题,但它是一个新的研究领域,因此很难获得系统的知识。
鉴于这种信息的缺乏,本文总结了自然语言处理中可解释性人工智能的现状。如果你对可解释人工智能感兴趣,请看这篇文章。
目录
1、可解释性人工智能的大致分类
当地/全球
自我解释/后解释
2.可解释人工智能的技术细节
2.1、可解释性技术
特征重要性
代用模型
例子驱动
以来源为基础
声明式感应
2.2. 相关的问责技术
第一派生显著性
层级相关性传播
输入扰动
注意事项
LSTM门控信号
可解释性的架构设计
2.3、可解释性可视化技术
显著性
原始声明式表述
自然语言解释
3. 评估可解释性
3.1. 评价的分类
对解释的非正式审查
与地面真相相比
人类评价
其他
3.2.什么是可解释的?
4、实际调研案例总结
要阅读更多。
你需要在AI-SCHOLAR注册。
或与本文相关的类别