論文の概要: Seeing Isn't Always Believing: Analysis of Grad-CAM Faithfulness and Localization Reliability in Lung Cancer CT Classification
- arxiv url: http://arxiv.org/abs/2601.12826v1
- Date: Mon, 19 Jan 2026 08:35:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.811764
- Title: Seeing Isn't Always Believing: Analysis of Grad-CAM Faithfulness and Localization Reliability in Lung Cancer CT Classification
- Title(参考訳): 肺がんCTの診断におけるGrad-CAMの忠実度と局所性の検討
- Authors: Teerapong Panboonyuen,
- Abstract要約: 本研究は,Grad-CAMが肺がん画像分類のために訓練された深部モデルの内部決定を真に表しているかどうかを考察する。
局所化精度,摂動に基づく忠実度,説明整合性を組み合わせた定量的評価フレームワークを導入し,Grad-CAMの信頼性を評価する。
我々の研究は、医療AIにおける視覚的説明ツールのより慎重で厳格な採用を促すことを目的としており、モデルの説明を「信頼する」ことの意味を再考するようコミュニティに促している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) techniques, such as Gradient-weighted Class Activation Mapping (Grad-CAM), have become indispensable for visualizing the reasoning process of deep neural networks in medical image analysis. Despite their popularity, the faithfulness and reliability of these heatmap-based explanations remain under scrutiny. This study critically investigates whether Grad-CAM truly represents the internal decision-making of deep models trained for lung cancer image classification. Using the publicly available IQ-OTH/NCCD dataset, we evaluate five representative architectures: ResNet-50, ResNet-101, DenseNet-161, EfficientNet-B0, and ViT-Base-Patch16-224, to explore model-dependent variations in Grad-CAM interpretability. We introduce a quantitative evaluation framework that combines localization accuracy, perturbation-based faithfulness, and explanation consistency to assess Grad-CAM reliability across architectures. Experimental findings reveal that while Grad-CAM effectively highlights salient tumor regions in most convolutional networks, its interpretive fidelity significantly degrades for Vision Transformer models due to non-local attention behavior. Furthermore, cross-model comparisons indicate substantial variability in saliency localization, implying that Grad-CAM explanations may not always correspond to the true diagnostic evidence used by the networks. This work exposes critical limitations of current saliency-based XAI approaches in medical imaging and emphasizes the need for model-aware interpretability methods that are both computationally sound and clinically meaningful. Our findings aim to inspire a more cautious and rigorous adoption of visual explanation tools in medical AI, urging the community to rethink what it truly means to "trust" a model's explanation.
- Abstract(参考訳): Grad-CAM(Grad-CAM)のような説明可能な人工知能(XAI)技術は、医用画像解析におけるディープニューラルネットワークの推論プロセスの可視化に欠かせないものとなっている。
その人気にもかかわらず、これらのヒートマップに基づく説明の忠実さと信頼性は引き続き精査されている。
本研究は,Grad-CAMが肺がん画像分類のために訓練された深部モデルの内部決定を真に表しているかどうかを批判的に検討する。
公開されたIQ-OTH/NCCDデータセットを用いて,ResNet-50,ResNet-101,DenseNet-161,EfficientNet-B0,ViT-Base-Patch16-224の5つの代表的なアーキテクチャを評価し,Grad-CAMの解釈可能性のモデル依存性について検討した。
本稿では,局所化精度,摂動に基づく忠実度,およびアーキテクチャ間のGrad-CAM信頼性を評価するための説明整合性を組み合わせた定量的評価フレームワークを提案する。
実験の結果,Grad-CAMはほとんどの畳み込みネットワークにおいて正常な腫瘍領域を効果的に強調するが,非局所的注意行動による視覚トランスフォーマーモデルでは,解釈的忠実度は著しく低下することがわかった。
さらに、クロスモデル比較は、唾液濃度の局所化におけるかなりの変動を示し、Grad-CAMの説明は、ネットワークが使用する真の診断証拠と必ずしも一致しない可能性があることを示唆している。
この研究は、医用画像における現在の唾液量に基づくXAIアプローチの重要な限界を明らかにし、計算的健全かつ臨床的に有意義なモデル認識の解釈可能性手法の必要性を強調している。
我々の研究は、医療AIにおける視覚的説明ツールのより慎重で厳格な採用を促すことを目的としており、モデルの説明を「信頼する」ことの意味を再考するようコミュニティに促している。
関連論文リスト
- Interpretable Clinical Classification with Kolgomorov-Arnold Networks [70.72819760172744]
Kolmogorov-Arnold Networks (KAN) は、透明で象徴的な表現を通じて固有の解釈能力を提供する。
Kansは、組み込みの患者レベルの洞察、直感的な可視化、最寄りの患者の検索をサポートする。
これらの結果は、カンを、臨床医が理解し、監査し、行動できる信頼できるAIへの有望なステップと位置づけている。
論文 参考訳(メタデータ) (2025-09-20T17:21:58Z) - Enhanced SegNet with Integrated Grad-CAM for Interpretable Retinal Layer Segmentation in OCT Images [0.0]
そこで本研究では,SegNetによる網膜層分割の自動化と解釈のためのディープラーニングフレームワークを提案する。
改良されたプール戦略を含むアーキテクチャ上の革新は、ノイズの多いOCT画像からの特徴抽出を強化する。
Grad-CAMの可視化では、解剖学的に関連のある領域が強調され、セグメンテーションと臨床バイオマーカーが一致した。
論文 参考訳(メタデータ) (2025-09-09T14:31:51Z) - Benchmarking Class Activation Map Methods for Explainable Brain Hemorrhage Classification on Hemorica Dataset [0.0]
本研究は脳出血の診断について,CAM(Class Activation Mapping)技術による説明可能性に着目して検討した。
9つの最先端CAMアルゴリズムを用いて,分類モデルから画素レベルのセグメンテーションと検出アノテーションを抽出するパイプラインを開発した。
論文 参考訳(メタデータ) (2025-08-25T06:16:32Z) - A Systematic Study of Deep Learning Models and xAI Methods for Region-of-Interest Detection in MRI Scans [0.0]
本研究は, 膝関節MRIにおける興味領域の自動検出のためのAI(xAI)技術と組み合わせて, 各種ディープラーニングアーキテクチャの体系的評価を行う。
ResNet50, InceptionV3, Vision Transformers (ViT) および多層パーセプトロン (MLP) 分類器を付加した複数のU-Net変種について検討した。
以上の結果から,ResNet50は,MRNetデータセットの制約下でのトランスフォーマーベースモデルよりも優れた分類とROI識別が一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-08-19T17:42:45Z) - Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。