赶上最新的AI论文

设置限制特征的门,使一个过滤器负责一类

深度学习

三个要点
✔️控制特定类别的过滤器。
✔️在不损失精度的情况下,提高过滤器的可解释性。
✔️适用于物体位置和敌对样品。

Training Interpretable Convolutional Neural Networks by Differentiating Class-specific Filters
written by Haoyu LiangZhihao OuyangYuyuan ZengHang SuZihao HeShu-Tao XiaJun ZhuBo Zhang
(Submitted on 16 Jul 2020)

Comments: Accepted at arXiv
Subjects: Computer Vision and Pattern Recognition (cs.CV); Machine Learning (cs.LG)
Paper 
Coming soon COMM Code 

介绍

卷积神经网络(CNN)在视觉任务中表现出很多高准确度。然而,即使是如此强大的CNN,也很难解释。如果我们讨论人类和人工智能在解释上的差异,以及对它们的需求,虽然有很多不同的想法,但我们最好能够解释它们。差异是人类新的认识,如果能得到解释,那么显然更好。一旦获得这些,就可以确认其在自动驾驶和医疗诊断中的可靠性。

阻碍这种可解释性潜力的原因之一是过滤器类纠缠。纠缠这个词听起来并不熟悉,但如果你看下图,你可以把它和我在这里介绍的论文进行对比,你可以直观地看到它是如何改善解释的。

左边是传统的CNN。一个过滤器可见,与船、猫、狗等对应的各种事物,对于船、猫、狗来说,是很难解释的。如右图提议的,每一类都有一个过滤器,比如猫和狗,这样更容易解释。我这次要介绍的论文是关于提高可解释性的,每个类别使用一个过滤器。其实,这个想法可能是有道理的。在之前的工作中,他们发现不同过滤器之间存在冗余特征,在CVPR 2019中提出了专门过滤器学习的可能性。

要阅读更多。

你需要在AI-SCHOLAR注册。

1分钟内免费轻松注册

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!
加藤 avatar
AI-SCHOLAR是一个评论媒体,以通俗易懂的方式介绍关于AI(人工智能)的最新文章。 人工智能的作用不仅限于技术创新,日本的科研能力正在下降,政府也在不断削减研究预算。 向世界传达人工智能的技术、应用以及支持人工智能的基础科学的背景,是一个重要的外延,可以极大地影响社会对科学的理解和印象。 AI-SCHOLAR旨在帮助消除普通民众和专家之间对人工智能的理解差距,为人工智能融入社会做出贡献。 另外,我们希望帮助大家把自己的学习和研究经验在媒体上体现出来,在社会上表达出来。 任何人都可以用艰深的词汇来解释高深难懂的事情,但AI-SCHOLAR追求的是"可读性"和"可理解性",充分利用词汇和设计来传递信息,以此为媒介。

如果您对文章内容有任何改进建议等,请通过 "联系我们 "表格与爱学网编辑部联系。
如果您能通过咨询表与我们联系,我们将非常感激。

联系我们