論文の概要: LCE: A Framework for Explainability of DNNs for Ultrasound Image Based on Concept Discovery
- arxiv url: http://arxiv.org/abs/2408.09899v1
- Date: Mon, 19 Aug 2024 11:13:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 16:35:11.011876
- Title: LCE: A Framework for Explainability of DNNs for Ultrasound Image Based on Concept Discovery
- Title(参考訳): LCE:概念発見に基づく超音波画像のためのDNNの説明可能性のためのフレームワーク
- Authors: Weiji Kong, Xun Gong, Juan Wang,
- Abstract要約: 本稿では,帰納的手法と概念に基づく手法を組み合わせたLesion Concept Explainer (LCE) フレームワークを提案する。
提案するフレームワークは,忠実度と可理解性の両方の観点から評価する。
一般用および民間用乳房超音波データセットを評価したところ,LCEは一般的に用いられている説明可能性法と比較して良好な性能を示した。
- 参考スコア(独自算出の注目度): 5.236608333075716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining the decisions of Deep Neural Networks (DNNs) for medical images has become increasingly important. Existing attribution methods have difficulty explaining the meaning of pixels while existing concept-based methods are limited by additional annotations or specific model structures that are difficult to apply to ultrasound images. In this paper, we propose the Lesion Concept Explainer (LCE) framework, which combines attribution methods with concept-based methods. We introduce the Segment Anything Model (SAM), fine-tuned on a large number of medical images, for concept discovery to enable a meaningful explanation of ultrasound image DNNs. The proposed framework is evaluated in terms of both faithfulness and understandability. We point out deficiencies in the popular faithfulness evaluation metrics and propose a new evaluation metric. Our evaluation of public and private breast ultrasound datasets (BUSI and FG-US-B) shows that LCE performs well compared to commonly-used explainability methods. Finally, we also validate that LCE can consistently provide reliable explanations for more meaningful fine-grained diagnostic tasks in breast ultrasound.
- Abstract(参考訳): 医用画像に対するディープニューラルネットワーク(DNN)の決定を説明することがますます重要になっている。
既存の属性法はピクセルの意味を説明するのが難しいが、既存の概念に基づく手法は、超音波画像に適用することが難しい追加アノテーションや特定のモデル構造によって制限されている。
本稿では,帰納的手法と概念に基づく手法を組み合わせたLesion Concept Explainer (LCE) フレームワークを提案する。
超音波画像DNNの有意義な説明を可能にするため,多数の医用画像に微調整したSegment Anything Model (SAM)を導入している。
提案するフレームワークは,忠実度と可理解性の両方の観点から評価する。
本稿では,信頼度評価指標の欠陥を指摘し,新しい評価指標を提案する。
一般用および民間用乳房超音波データセット(BUSI, FG-US-B)を評価した結果, LCEは一般的に用いられている説明可能性法と比較して高い性能を示した。
また, 乳房超音波検査において, LCEがより精細な診断タスクに対して, 確実な説明を連続的に提供できることを検証した。
関連論文リスト
- MICA: Towards Explainable Skin Lesion Diagnosis via Multi-Level
Image-Concept Alignment [4.861768967055006]
本稿では, 医療画像と臨床関連概念を多層的に意味的に整合させるマルチモーダル説明型疾患診断フレームワークを提案する。
提案手法は, モデル解釈可能性を維持しながら, 概念検出と疾患診断に高い性能とラベル効率を実現する。
論文 参考訳(メタデータ) (2024-01-16T17:45:01Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - BMAD: Benchmarks for Medical Anomaly Detection [51.22159321912891]
異常検出(AD)は、機械学習とコンピュータビジョンの基本的な研究課題である。
医用画像では、ADはまれな疾患や病態を示す可能性のある異常の検出と診断に特に重要である。
医用画像の異常検出方法を評価するための総合評価ベンチマークを導入する。
論文 参考訳(メタデータ) (2023-06-20T20:23:46Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - A Cognitive Explainer for Fetal ultrasound images classifier Based on
Medical Concepts [0.0]
本稿では,重要な医療概念に基づく解釈可能なフレームワークを提案する。
概念に基づくグラフ畳み込みニューラルネットワーク(GCN)を用いて、重要な医療概念間の関係を構築する。
論文 参考訳(メタデータ) (2022-01-19T14:44:36Z) - Improving Interpretability of Deep Neural Networks in Medical Diagnosis
by Investigating the Individual Units [24.761080054980713]
入力画像における重要な要素を可視化することにより,最近の帰属技術の有効性を実証し,診断の意思決定を説明する。
アンマキングマシンインテリジェンスの分析は、診断決定における説明可能性の必要性を示している。
論文 参考訳(メタデータ) (2021-07-19T11:49:31Z) - Act Like a Radiologist: Towards Reliable Multi-view Correspondence
Reasoning for Mammogram Mass Detection [49.14070210387509]
マンモグラム質量検出のための解剖学的グラフ畳み込みネットワーク(AGN)を提案する。
AGNはマンモグラムの質量検出用に調整されており、既存の検出手法を多視点推論能力で実現している。
2つの標準ベンチマークの実験によると、AGNは最先端のパフォーマンスを大幅に上回っている。
論文 参考訳(メタデータ) (2021-05-21T06:48:34Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Uncertainty Quantification using Variational Inference for Biomedical Image Segmentation [0.0]
我々は,脳腫瘍画像のセグメント化のための変分推論技術に基づくエンコーダデコーダアーキテクチャを用いる。
Dice similarity Coefficient (DSC) と Intersection Over Union (IOU) を指標として, 公開されているBRATSデータセットの評価を行った。
論文 参考訳(メタデータ) (2020-08-12T20:08:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。