論文の概要: On the notion of missingness for path attribution explainability methods in medical settings: Guiding the selection of medically meaningful baselines
- arxiv url: http://arxiv.org/abs/2508.14482v1
- Date: Wed, 20 Aug 2025 07:13:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.370972
- Title: On the notion of missingness for path attribution explainability methods in medical settings: Guiding the selection of medically meaningful baselines
- Title(参考訳): 医療現場における経路帰属説明可能性の欠如の概念--医学的に意味のある基準の選定を指導する
- Authors: Alexander Geiger, Lars Wagner, Daniel Rueckert, Dirk Wilhelm, Alissa Jell,
- Abstract要約: 臨床的に正常ではあるが入力クローズ・カウンティファクトは、医療データに有意な特徴が欠如していることのより正確な表現である、と我々は主張する。
我々は,3つの異なる医療データセットに対するアプローチを評価し,反事実的ベースラインがより忠実で医療に関係のある属性をもたらすことを実証的に実証した。
- 参考スコア(独自算出の注目度): 48.688209040613216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The explainability of deep learning models remains a significant challenge, particularly in the medical domain where interpretable outputs are critical for clinical trust and transparency. Path attribution methods such as Integrated Gradients rely on a baseline input representing the absence of relevant features ("missingness"). Commonly used baselines, such as all-zero inputs, are often semantically meaningless, especially in medical contexts where missingness can itself be informative. While alternative baseline choices have been explored, existing methods lack a principled approach to dynamically select baselines tailored to each input. In this work, we examine the notion of missingness in the medical setting, analyze its implications for baseline selection, and introduce a counterfactual-guided approach to address the limitations of conventional baselines. We argue that a clinically normal but input-close counterfactual represents a more accurate representation of a meaningful absence of features in medical data. To implement this, we use a Variational Autoencoder to generate counterfactual baselines, though our concept is generative-model-agnostic and can be applied with any suitable counterfactual method. We evaluate the approach on three distinct medical data sets and empirically demonstrate that counterfactual baselines yield more faithful and medically relevant attributions compared to standard baseline choices.
- Abstract(参考訳): 特に、解釈可能なアウトプットが臨床信頼と透明性に不可欠である医療領域において、ディープラーニングモデルの説明可能性は非常に重要な課題である。
統合グラディエントのような経路帰属法は、関連する特徴の欠如を表すベースライン入力に依存する("missingness")。
オールゼロ入力のような一般的に使用されるベースラインは、意味的に意味を持たないことが多い。
代替のベースライン選択が検討されているが、既存の手法では各入力に適したベースラインを動的に選択するための原則的アプローチが欠如している。
本研究は, 医療環境における欠如の概念を考察し, その意味をベースライン選択に適用し, 従来のベースラインの限界に対処するために, ファクトファクトファクトのアプローチを導入するものである。
臨床的に正常ではあるが入力クローズ・カウンティファクトは、医療データに有意な特徴が欠如していることのより正確な表現である、と我々は主張する。
これを実現するために、我々は変分オートエンコーダを用いて反ファクトベースラインを生成するが、この概念は生成モデルに依存しず、適切な反ファクトメソッドで適用することができる。
本研究は,3つの異なる医療データセットに対するアプローチを実証的に評価し,反事実ベースラインが標準ベースライン選択よりも忠実で医学的に関係のある属性をもたらすことを実証した。
関連論文リスト
- Enhancing interpretability of rule-based classifiers through feature graphs [0.0]
ルールベースシステムにおける特徴量推定のためのフレームワークを提案する。
グラフベースの機能可視化戦略も導入する。
臨床特徴の複合的予測価値に関する新たな知見を明らかにするために,本手法の能力について紹介する。
論文 参考訳(メタデータ) (2025-06-16T18:29:37Z) - Weighted Integrated Gradients for Feature Attribution [2.3226745625632947]
説明可能なAIでは、インテグレート・グラディエンス(IG)はモデル出力における入力の特徴属性の重要性を評価するために広く採用されている手法である。
この研究はベースラインを同等に扱うべきではないと主張している。
Weighted Integrated Gradients (WG) は、教師なしでベースライン適合性を評価し、効果的なベースラインを選択するための戦略を取り入れた新しいアプローチである。
論文 参考訳(メタデータ) (2025-05-06T05:36:47Z) - High-dimensional multimodal uncertainty estimation by manifold alignment:Application to 3D right ventricular strain computations [1.254652786049077]
本稿では,生理的記述子上での局所的不確実性を推定する表現学習戦略を提案する。
まず、各高次元入力記述子に付随する潜在表現に一致させるために、多様体アライメントを用いる。
次に, 潜伏不確かさの確率分布を定式化し, 最終的に入力された高次元記述子上の不確かさを再構成する。
論文 参考訳(メタデータ) (2025-01-21T14:35:35Z) - Pitfalls of topology-aware image segmentation [81.19923502845441]
我々は、不適切な接続選択、見過ごされたトポロジカルアーティファクト、評価指標の不適切な使用を含むモデル評価における致命的な落とし穴を同定する。
本稿では,トポロジを意識した医用画像分割手法の公正かつ堅牢な評価基準を確立するための,行動可能なレコメンデーションセットを提案する。
論文 参考訳(メタデータ) (2024-12-19T08:11:42Z) - Unlearning-based Neural Interpretations [51.99182464831169]
静的関数を用いて定義される現在のベースラインは、バイアスがあり、脆弱であり、操作可能であることを示す。
UNIは、学習不可能で、偏りがなく、適応的なベースラインを計算し、入力を最も急な上昇の未学習方向に向けて摂動させることを提案する。
論文 参考訳(メタデータ) (2024-10-10T16:02:39Z) - Virtually Objective Quantification of in vitro Wound Healing Scratch Assays with the Segment Anything Model [0.19999259391104385]
細胞生物学において、インビトロ・スクラッチ・アッセイ(in vitro scratch assay)は、傷の閉鎖率を評価するために広く用いられている。
本稿では,対話型ポイントプロンプトに基づくディープ・ファンデーション・モデルであるセグメント・アプライス・モデルを利用する。
結果は、ドメインエキスパートの手作業によるセグメンテーションと比較しても、サーバ内およびサーバ間の変動が非常に少なかった。
論文 参考訳(メタデータ) (2024-07-02T11:45:56Z) - Uncertainty-aware Medical Diagnostic Phrase Identification and Grounding [72.18719355481052]
MRG(Messical Report Grounding)と呼ばれる新しい課題について紹介する。
MRGは医療報告から診断フレーズとその対応する接地箱を直接エンドツーエンドで識別することを目的としている。
マルチモーダルな大規模言語モデルを用いて診断フレーズを予測する,堅牢で信頼性の高いフレームワークである uMedGround を提案する。
論文 参考訳(メタデータ) (2024-04-10T07:41:35Z) - One Map Does Not Fit All: Evaluating Saliency Map Explanation on
Multi-Modal Medical Images [22.672569495620895]
医用画像では、サリエンシマップが最も一般的な説明形式である。
評価の結果,ほとんどのサリエンシマップ手法は一般にモダリティの重要情報を収集するが,そのほとんどはモダリティに特有な重要な特徴を連続的かつ正確に強調することができなかった。
論文 参考訳(メタデータ) (2021-07-11T13:43:02Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。