論文の概要: On Interpretability of Deep Learning based Skin Lesion Classifiers using
Concept Activation Vectors
- arxiv url: http://arxiv.org/abs/2005.02000v1
- Date: Tue, 5 May 2020 08:27:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:04:03.937610
- Title: On Interpretability of Deep Learning based Skin Lesion Classifiers using
Concept Activation Vectors
- Title(参考訳): 概念活性化ベクターを用いた深層学習に基づく皮膚病変分類器の解釈について
- Authors: Adriano Lucieri, Muhammad Naseer Bajwa, Stephan Alexander Braun,
Muhammad Imran Malik, Andreas Dengel and Sheraz Ahmed
- Abstract要約: メラノーマ, メラノーマ, セボリックケラトーシスの3種類の皮膚腫瘍の分類には, 十分に訓練された高性能ニューラルネットワークを用いている。
概念活性化ベクトル(CAV)の助けを借りて、人間の理解可能な概念をRECOD画像分類モデルにマッピングする
- 参考スコア(独自算出の注目度): 6.188009802619095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based medical image classifiers have shown remarkable prowess
in various application areas like ophthalmology, dermatology, pathology, and
radiology. However, the acceptance of these Computer-Aided Diagnosis (CAD)
systems in real clinical setups is severely limited primarily because their
decision-making process remains largely obscure. This work aims at elucidating
a deep learning based medical image classifier by verifying that the model
learns and utilizes similar disease-related concepts as described and employed
by dermatologists. We used a well-trained and high performing neural network
developed by REasoning for COmplex Data (RECOD) Lab for classification of three
skin tumours, i.e. Melanocytic Naevi, Melanoma and Seborrheic Keratosis and
performed a detailed analysis on its latent space. Two well established and
publicly available skin disease datasets, PH2 and derm7pt, are used for
experimentation. Human understandable concepts are mapped to RECOD image
classification model with the help of Concept Activation Vectors (CAVs),
introducing a novel training and significance testing paradigm for CAVs. Our
results on an independent evaluation set clearly shows that the classifier
learns and encodes human understandable concepts in its latent representation.
Additionally, TCAV scores (Testing with CAVs) suggest that the neural network
indeed makes use of disease-related concepts in the correct way when making
predictions. We anticipate that this work can not only increase confidence of
medical practitioners on CAD but also serve as a stepping stone for further
development of CAV-based neural network interpretation methods.
- Abstract(参考訳): 深層学習に基づく医用画像分類器は眼科、皮膚科、病理学、放射線学など様々な応用分野において顕著な進歩を見せている。
しかし, 実際の臨床施設におけるコンピュータ支援診断(CAD)システムの受容は, 意思決定過程が明らかになっていないため, 著しく制限されている。
本研究は, 皮膚科医が記述, 採用した類似の疾患関連概念を学習し, 活用することを検証することによって, 深層学習に基づく医用画像分類器の解明を目的とする。
Reasoning for Complex Data (RECOD) Lab を用いて, メラノサイトティック・ナエビ, メラノーマ, セボリック・ケラトーシスの3つの皮膚腫瘍の分類を行い, 潜伏領域の詳細な解析を行った。
確立された2つの皮膚疾患データセットであるPH2とDerm7ptが実験に用いられている。
概念活性化ベクトル(Concept Activation Vectors, CAV)の助けを借りて, 人間の理解可能な概念をRECOD画像分類モデルにマッピングする。
独立評価セットを用いた結果から,その潜在表現において人間の理解可能な概念を学習し,符号化することを示す。
さらに、TCAVスコア (Testing with CAVs) は、ニューラルネットワークが予測を行う際に、正しい方法で疾患関連の概念を活用することを示唆している。
本研究は,CADにおける医療従事者の信頼性を高めるだけでなく,CAVベースのニューラルネットワーク解釈手法のさらなる発展の足掛かりとなることを期待する。
関連論文リスト
- Concept-Attention Whitening for Interpretable Skin Lesion Diagnosis [7.5422729055429745]
皮膚病変診断のための新しい概念認識白化(CAW)フレームワークを提案する。
前枝では,CAW層を挿入した畳み込みニューラルネットワーク(CNN)を訓練し,皮膚病変の診断を行った。
後者のブランチでは、マトリクスはコンセプトアテンションマスクのガイダンスに基づいて計算される。
論文 参考訳(メタデータ) (2024-04-09T04:04:50Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - In-Line Image Transformations for Imbalanced, Multiclass Computer Vision
Classification of Lung Chest X-Rays [91.3755431537592]
本研究は、COVID-19 LCXRデータ不足のバランスをとるために画像変換を適用するために、文献の体系を活用することを目的としている。
convolutional neural networks(cnns)のようなディープラーニング技術は、健康状態と疾患状態を区別する特徴を選択することができる。
本研究は,CNNアーキテクチャを用いて高速多クラスLCXR分類を94%精度で行う。
論文 参考訳(メタデータ) (2021-04-06T02:01:43Z) - Explaining Predictions of Deep Neural Classifier via Activation Analysis [0.11470070927586014]
本稿では,畳み込みニューラルネットワーク(CNN)に基づく深層学習システムを実行する人間専門家に対して,意思決定プロセスの説明と支援を行う新しいアプローチを提案する。
以上の結果から,本手法は既存のアトラスから最も類似した予測を識別できる別個の予測戦略を検出することができることが示された。
論文 参考訳(メタデータ) (2020-12-03T20:36:19Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Interpretable Deep Models for Cardiac Resynchronisation Therapy Response
Prediction [8.152884957975354]
可変オートエンコーダ(VAE)に基づく画像分類のための新しいフレームワークを提案する。
VAEは、既存の臨床知識から引き出された説明に基づいて潜伏空間を解体する。
心臓磁気共鳴画像による心臓再同期療法(CRT)に対する心筋症の反応予測の枠組みを実証した。
論文 参考訳(メタデータ) (2020-06-24T15:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。