論文の概要: Explainable Deep Image Classifiers for Skin Lesion Diagnosis
- arxiv url: http://arxiv.org/abs/2111.11863v1
- Date: Mon, 22 Nov 2021 10:42:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 10:30:35.380532
- Title: Explainable Deep Image Classifiers for Skin Lesion Diagnosis
- Title(参考訳): 皮膚病変診断のための説明可能な深部画像分類器
- Authors: Carlo Metta, Andrea Beretta, Riccardo Guidotti, Yuan Yin, Patrick
Gallinari, Salvatore Rinzivillo, Fosca Giannotti
- Abstract要約: 医療診断などの重要な文脈における重要な問題は、意思決定システムで採用されるディープラーニングモデルの解釈可能性である。
本稿では,既存のXAIアプローチをカスタマイズして,異なる種類の皮膚病変を認識可能な深層学習モデルを説明する,皮膚病変画像のケーススタディを分析する。
- 参考スコア(独自算出の注目度): 16.483826925814522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A key issue in critical contexts such as medical diagnosis is the
interpretability of the deep learning models adopted in decision-making
systems. Research in eXplainable Artificial Intelligence (XAI) is trying to
solve this issue. However, often XAI approaches are only tested on generalist
classifier and do not represent realistic problems such as those of medical
diagnosis. In this paper, we analyze a case study on skin lesion images where
we customize an existing XAI approach for explaining a deep learning model able
to recognize different types of skin lesions. The explanation is formed by
synthetic exemplar and counter-exemplar images of skin lesion and offers the
practitioner a way to highlight the crucial traits responsible for the
classification decision. A survey conducted with domain experts, beginners and
unskilled people proof that the usage of explanations increases the trust and
confidence in the automatic decision system. Also, an analysis of the latent
space adopted by the explainer unveils that some of the most frequent skin
lesion classes are distinctly separated. This phenomenon could derive from the
intrinsic characteristics of each class and, hopefully, can provide support in
the resolution of the most frequent misclassifications by human experts.
- Abstract(参考訳): 医療診断などの重要な文脈における重要な問題は、意思決定システムで採用されるディープラーニングモデルの解釈可能性である。
eXplainable Artificial Intelligence (XAI)の研究は、この問題を解決しようとしている。
しかしながら、XAIアプローチは一般的な分類法でのみテストされ、診断などの現実的な問題を表現していないことが多い。
本稿では,既存のXAIアプローチをカスタマイズして,異なる種類の皮膚病変を認識可能な深層学習モデルを説明する,皮膚病変画像のケーススタディを分析する。
この説明は、皮膚病変の合成例と対例画像によって形成され、その分類決定に重要な特徴を強調する方法を提供する。
ドメインの専門家、初心者、未熟練者の調査は、説明の使用が自動意思決定システムにおける信頼と信頼を高めることを証明している。
また、説明者によって採用された潜伏空間の分析により、最も頻繁な皮膚病変のクラスが明確に分離されていることが明らかとなった。
この現象は、それぞれのクラスの本質的な特徴から派生し、願わくば、人間の専門家による最も頻繁な誤分類の解決を支援することができる。
関連論文リスト
- Aligning Human Knowledge with Visual Concepts Towards Explainable Medical Image Classification [8.382606243533942]
本稿では,説明可能な言語インフォームド基準に基づく診断に向けて,シンプルで効果的なフレームワークであるExplicdを紹介した。
事前訓練された視覚言語モデルを活用することで、Explicdはこれらの基準を知識アンカーとして埋め込み空間に注入する。
最終的な診断結果は、符号化された視覚概念とテキストの基準埋め込みとの類似度スコアに基づいて決定される。
論文 参考訳(メタデータ) (2024-06-08T23:23:28Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Exemplars and Counterexemplars Explanations for Image Classifiers,
Targeting Skin Lesion Labeling [26.17582232842832]
説明可能なAIは、意思決定システムと人間とのインタラクションを可能にするメカニズムの開発で構成されている。
これは医学領域のようなセンシティブな文脈において特に重要である。
本報告では,皮膚病変の診断における実践者への説明の仕方について考察する。
論文 参考訳(メタデータ) (2023-01-18T11:14:42Z) - Revisiting the Shape-Bias of Deep Learning for Dermoscopic Skin Lesion
Classification [4.414962444402826]
人間の視覚系は、テクスチャよりも形状の認識に偏っていると一般的に信じられている。
本稿では,皮膚病変画像の分類における形状ビアーゼの重要性を再考する。
論文 参考訳(メタデータ) (2022-06-13T20:59:06Z) - Explainable Deep Learning Methods in Medical Image Classification: A
Survey [0.0]
最先端のディープラーニングモデルは、異なるタイプの医療データの分類において、人間レベルの精度を達成した。
これらのモデルは、主に解釈可能性の欠如のために、臨床ではほとんど採用されていない。
ディープラーニングモデルのブラックボックス性は、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性を高めている。
論文 参考訳(メタデータ) (2022-05-10T09:28:14Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。