論文の概要: Improving Explainability of Disentangled Representations using
Multipath-Attribution Mappings
- arxiv url: http://arxiv.org/abs/2306.09035v1
- Date: Thu, 15 Jun 2023 10:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:16:22.378483
- Title: Improving Explainability of Disentangled Representations using
Multipath-Attribution Mappings
- Title(参考訳): マルチパス属性マッピングによる非交叉表現の説明可能性の向上
- Authors: Lukas Klein, Jo\~ao B. S. Carvalho, Mennatallah El-Assady, Paolo
Penna, Joachim M. Buhmann, Paul F. Jaeger
- Abstract要約: 下流タスク予測に解釈不能な不整合表現を利用するフレームワークを提案する。
提案手法の有効性を,総合ベンチマークスイートと2つの医療データセットで実証する。
- 参考スコア(独自算出の注目度): 12.145748796751619
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI aims to render model behavior understandable by humans, which
can be seen as an intermediate step in extracting causal relations from
correlative patterns. Due to the high risk of possible fatal decisions in
image-based clinical diagnostics, it is necessary to integrate explainable AI
into these safety-critical systems. Current explanatory methods typically
assign attribution scores to pixel regions in the input image, indicating their
importance for a model's decision. However, they fall short when explaining why
a visual feature is used. We propose a framework that utilizes interpretable
disentangled representations for downstream-task prediction. Through
visualizing the disentangled representations, we enable experts to investigate
possible causation effects by leveraging their domain knowledge. Additionally,
we deploy a multi-path attribution mapping for enriching and validating
explanations. We demonstrate the effectiveness of our approach on a synthetic
benchmark suite and two medical datasets. We show that the framework not only
acts as a catalyst for causal relation extraction but also enhances model
robustness by enabling shortcut detection without the need for testing under
distribution shifts.
- Abstract(参考訳): 説明可能なAIは、人間によって理解可能なモデル行動を記述することを目的としており、相関パターンから因果関係を抽出する中間段階と見なすことができる。
画像ベースの臨床診断における致命的な決定のリスクが高いため、これらの安全クリティカルシステムに説明可能なAIを統合する必要がある。
現在の説明法は通常、入力画像内の画素領域に属性スコアを割り当て、モデル決定の重要性を示す。
しかし、なぜビジュアル機能を使用するのかを説明すると不足する。
下流タスク予測に解釈不能な不整合表現を利用するフレームワークを提案する。
乱れた表現を視覚化することで、専門家はドメインの知識を活用して因果効果について調査できる。
さらに、説明の充実と検証のためのマルチパス属性マッピングをデプロイする。
提案手法の有効性を,総合ベンチマークスイートと2つの医療データセットで実証する。
このフレームワークは因果関係抽出の触媒として機能するだけでなく,分布シフト下でのテストを行うことなく近道検出を可能にし,モデルのロバスト性を高める。
関連論文リスト
- Diffusion Model with Cross Attention as an Inductive Bias for
Disentanglement [64.42792944778728]
遠方表現学習は、観測データ内の本質的要因を抽出する試みである。
我々は新しい視点と枠組みを導入し、クロスアテンションを持つ拡散モデルが強力な帰納バイアスとなることを示す。
これは、複雑な設計を必要とせず、クロスアテンションを持つ拡散モデルの強力な解離能力を明らかにする最初の研究である。
論文 参考訳(メタデータ) (2024-02-15T05:07:54Z) - Detecting Spurious Correlations via Robust Visual Concepts in Real and
AI-Generated Image Classification [12.992095539058022]
本稿では,潜在的スパイラル相関を効率的に検出する汎用手法を提案する。
提案手法は,ピクセルレベルのアノテーションを不要にしつつ,直感的な説明を提供する。
また,本手法は,生成モデル由来の下流アプリケーションに伝播する急激な相関を検出するのにも適している。
論文 参考訳(メタデータ) (2023-11-03T01:12:35Z) - Causality-Driven One-Shot Learning for Prostate Cancer Grading from MRI [1.049712834719005]
本稿では,画像中の弱い因果信号を学習し,活用する医用画像の自動分類手法を提案する。
我々のフレームワークは畳み込みニューラルネットワークのバックボーンと因果抽出モジュールで構成されている。
本研究は,特徴間の因果関係が,関連情報を識別するモデルの能力を高める上で重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2023-09-19T16:08:33Z) - Dual Decomposition of Convex Optimization Layers for Consistent
Attention in Medical Images [12.844658658362325]
医学における機械学習モデルの統合における主要な関心事は、推論を解釈する能力である。
共起層間の一貫した解釈を行う多層アテンション機構を提案する。
提案手法は,弱い注釈付き医用画像データを活用し,モデルの予測に対する完全かつ忠実な説明を提供する。
論文 参考訳(メタデータ) (2022-06-06T17:38:00Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。