Monte Carlo Dropoutによる医療AIの解釈性の可能性はあるか。ポリープのセグメンテーションで確認

Monte Carlo Dropoutによる医療AIの解釈性の可能性はあるか。ポリープのセグメンテーションで確認

3つの要点
✔️ 不確実性推定と解釈可能性における最近の進歩を大腸内視鏡検査画像からポリープをセグメンテーションタスクに組み込む
✔️ Montecarlo dropoutを使用して予測に関連する不確実性をモデル化した不確実性マップを出力  

✔️ ガイド付きバックプロパゲーションを使用して重要と見なされるピクセルを視覚化した解釈可能性マップを出力

Uncertainty and Interpretability in Convolutional Neural Networks for Semantic Segmentation of Colorectal Polyps
written by Kristoffer Wickstrøm,Michael Kampffmeyer,Robert Jenssen
(Submitted on 16 Jul 2018)

Comments: Published by IEEE MLSP 2018
Subjects: Computer Vision and Pattern Recognition (cs.CV); Machine Learning (cs.LG); Machine Learning (stat.ML)

医療AI

Deep Convolutional Neural Network(DCNN)の素晴らしい成果が報告されるにつれて,医療への応用は様々なタスク,同質性肺疾患の分類や細胞検出,心胸郭比の推定,ポリープ検出などに応用されています.有望な結果にもかかわらず,Deep Learningの評価は,精度の競争に執着していて,モデルの解釈可能性と不確実性の定量化に欠けているため人間がCNNの推論結果を理解することが難しいのが現状です.例えば,ポリープのセグメンテーションタスクでは,入力画像からポリープのある領域を推論しセグメンテーションマップを出力しますが,Deep Neural Neteork(以後,DNN)が推論する根拠となった特徴や不確実性(推論の根拠が薄く,推論結果に自信がない(=分散が大きい))については人間に知らせません.したがって,大半の医師はセグメンテーションマップのみに基づいて診断することに消極的です.本稿では,特定領域にポリープ(解釈可能性)が含まれているとモデルが信じる理由を医療スタッフが理解でき,同時に,モデル中から不確実性を提示できるモデルを紹介する.本稿では,大腸ポリープのセグメンテーションを題材に,DNNの推論結果に解釈可能性と不確実性を定量化したそれぞれのマップを出力させる.

この記事をシェアする