論文の概要: Contrastive Integrated Gradients: A Feature Attribution-Based Method for Explaining Whole Slide Image Classification
- arxiv url: http://arxiv.org/abs/2511.08464v1
- Date: Wed, 12 Nov 2025 02:00:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.826862
- Title: Contrastive Integrated Gradients: A Feature Attribution-Based Method for Explaining Whole Slide Image Classification
- Title(参考訳): 対照的な統合的勾配:全スライド画像分類を記述するための特徴属性に基づく方法
- Authors: Anh Mai Vu, Tuan L. Vo, Ngoc Lam Quang Bui, Nam Nguyen Le Binh, Akash Awasthi, Huy Quoc Vo, Thanh-Huy Nguyen, Zhu Han, Chandra Mohan, Hien Van Nguyen,
- Abstract要約: 計算病理学における全スライド画像(WSI)解析には解釈可能性が不可欠である。
本稿では,ロジット空間におけるコントラスト勾配の計算により,解釈可能性を高める新しい帰属法であるContrastive Integrated Gradients (CIG)を紹介する。
- 参考スコア(独自算出の注目度): 16.637098984977055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability is essential in Whole Slide Image (WSI) analysis for computational pathology, where understanding model predictions helps build trust in AI-assisted diagnostics. While Integrated Gradients (IG) and related attribution methods have shown promise, applying them directly to WSIs introduces challenges due to their high-resolution nature. These methods capture model decision patterns but may overlook class-discriminative signals that are crucial for distinguishing between tumor subtypes. In this work, we introduce Contrastive Integrated Gradients (CIG), a novel attribution method that enhances interpretability by computing contrastive gradients in logit space. First, CIG highlights class-discriminative regions by comparing feature importance relative to a reference class, offering sharper differentiation between tumor and non-tumor areas. Second, CIG satisfies the axioms of integrated attribution, ensuring consistency and theoretical soundness. Third, we propose two attribution quality metrics, MIL-AIC and MIL-SIC, which measure how predictive information and model confidence evolve with access to salient regions, particularly under weak supervision. We validate CIG across three datasets spanning distinct cancer types: CAMELYON16 (breast cancer metastasis in lymph nodes), TCGA-RCC (renal cell carcinoma), and TCGA-Lung (lung cancer). Experimental results demonstrate that CIG yields more informative attributions both quantitatively, using MIL-AIC and MIL-SIC, and qualitatively, through visualizations that align closely with ground truth tumor regions, underscoring its potential for interpretable and trustworthy WSI-based diagnostics
- Abstract(参考訳): 計算病理学の全体スライド画像(WSI)解析では、モデル予測の理解がAI支援診断の信頼性構築に役立つため、解釈可能性が不可欠である。
統合グラディエント(IG)および関連する属性メソッドは、将来性を示してきたが、WSIに直接適用することは、その高解像度性に起因する課題をもたらす。
これらの手法は、モデル決定パターンを捉えるが、腫瘍のサブタイプを区別するために重要なクラス識別シグナルを見落としてしまう可能性がある。
本稿では,ロジット空間の相対勾配を計算することによって,解釈可能性を高める新しい属性手法であるContrastive Integrated Gradients (CIG)を紹介する。
まず、CIGは、基準クラスに対する特徴的重要性を比較し、腫瘍と非腫瘍領域のより鋭い分化を提供することにより、クラス識別領域を強調した。
第二に、CIGは統合帰属の公理を満足し、一貫性と理論的健全性を確保する。
第3に、予測情報とモデル信頼度を、特に弱い監督下で、有意な地域へのアクセスによってどのように発展していくかを測定する、MIL-AICとMIL-SICの2つの属性品質指標を提案する。
CAMELYON16(リンパ節転移)、TGA-RCC(腎細胞癌)、TGA-Lung(肺癌)の3種類の異なるがん種にまたがるCIGを検証した。
実験の結果、CIGは、MIL-AICとMIL-SICを用いて定量的に、また、地上の真実の腫瘍領域と密接に一致した可視化を通して、より定量的に、より情報的帰属をもたらすことが示されている。
関連論文リスト
- DB-FGA-Net: Dual Backbone Frequency Gated Attention Network for Multi-Class Brain Tumor Classification with Grad-CAM Interpretability [0.0]
本稿では、VGG16とXceptionをFGAブロックと統合した二重バックボーンネットワークを提案する。
本モデルでは,可変サイズおよび分散データセットに対するロバスト性を示す拡張を伴わず,最先端のパフォーマンスを実現する。
さらに透明性を高めるため、Grad-CAMはモデルが予測している腫瘍領域を可視化するために統合され、モデル予測と臨床解釈可能性のギャップを埋める。
論文 参考訳(メタデータ) (2025-10-23T07:39:00Z) - From Gaze to Insight: Bridging Human Visual Attention and Vision Language Model Explanation for Weakly-Supervised Medical Image Segmentation [48.45209969191245]
視覚言語モデル(VLM)は、テキスト記述を通して意味的コンテキストを提供するが、説明精度は欠如している。
本稿では,その補完的強みを活かし,視線と言語指導を統合した教師教育フレームワークを提案する。
本手法は,8.78%,80.53%,84.22%のDiceスコアをそれぞれ達成し,アノテーション負担を増大させることなく視線ベースラインよりも3.5%向上した。
論文 参考訳(メタデータ) (2025-04-15T16:32:15Z) - Vision Transformers with Autoencoders and Explainable AI for Cancer Patient Risk Stratification Using Whole Slide Imaging [3.6940298700319065]
PATH-Xは、視覚変換器(ViT)と自動エンコーダをSHAP(Shapley Additive Explanations)と統合し、患者の成層化とリスク予測のモデル化性を高めるフレームワークである。
代表画像スライスを各WSIから選択し、Googleの事前訓練されたViTを用いて数値的特徴埋め込みを抽出する。
カプラン・マイアー生存分析を用いて,2つのリスク群と3つのリスク群に層状化を評価する。
論文 参考訳(メタデータ) (2025-04-07T05:48:42Z) - Multimodal Outer Arithmetic Block Dual Fusion of Whole Slide Images and Omics Data for Precision Oncology [6.418265127069878]
本稿では, 局所(パッチレベル)から大域(スライダーレベル)の相互作用の相補的な情報を取得するために, 早期・後期融合におけるオミック埋め込みの利用を提案する。
この二重融合戦略は、解釈可能性と分類性能を高め、臨床診断の可能性を強調している。
論文 参考訳(メタデータ) (2024-11-26T13:25:53Z) - It Takes Two: Accurate Gait Recognition in the Wild via Cross-granularity Alignment [72.75844404617959]
本稿では,XGait という新しい粒度アライメント歩行認識手法を提案する。
この目的を達成するために、XGaitはまず2つのバックボーンエンコーダの分岐を含み、シルエットシーケンスとパーシングシーケンスを2つの潜在空間にマッピングする。
2つの大規模な歩行データセットの総合的な実験では、ランク1の精度が80.5%、CCPGが88.3%である。
論文 参考訳(メタデータ) (2024-11-16T08:54:27Z) - Genetic InfoMax: Exploring Mutual Information Maximization in
High-Dimensional Imaging Genetics Studies [50.11449968854487]
遺伝子ワイド・アソシエーション(GWAS)は、遺伝的変異と特定の形質の関係を同定するために用いられる。
画像遺伝学の表現学習は、GWASによって引き起こされる固有の課題により、ほとんど探索されていない。
本稿では,GWAS の具体的な課題に対処するために,トランスモーダル学習フレームワーク Genetic InfoMax (GIM) を提案する。
論文 参考訳(メタデータ) (2023-09-26T03:59:21Z) - RACR-MIL: Rank-aware contextual reasoning for weakly supervised grading of squamous cell carcinoma using whole slide images [0.5190659258584331]
扁平上皮癌は最も一般的な癌亜型であり、発生頻度が増加し、がん関連死亡率に大きな影響を及ぼす。
複数の解剖学にまたがる堅牢な一般化を実現するために, RACR-MILを提案する。
本モデルでは,複数のSCCデータセットにまたがる最先端性能を達成し,3~9%のグレーディング精度,クラス不均衡に対するレジリエンス,最大16%の腫瘍局所化を実現した。
論文 参考訳(メタデータ) (2023-08-29T20:25:49Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。