論文の概要: Improving Explainability of Disentangled Representations using
Multipath-Attribution Mappings
- arxiv url: http://arxiv.org/abs/2306.09035v1
- Date: Thu, 15 Jun 2023 10:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:16:22.378483
- Title: Improving Explainability of Disentangled Representations using
Multipath-Attribution Mappings
- Title(参考訳): マルチパス属性マッピングによる非交叉表現の説明可能性の向上
- Authors: Lukas Klein, Jo\~ao B. S. Carvalho, Mennatallah El-Assady, Paolo
Penna, Joachim M. Buhmann, Paul F. Jaeger
- Abstract要約: 下流タスク予測に解釈不能な不整合表現を利用するフレームワークを提案する。
提案手法の有効性を,総合ベンチマークスイートと2つの医療データセットで実証する。
- 参考スコア(独自算出の注目度): 12.145748796751619
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI aims to render model behavior understandable by humans, which
can be seen as an intermediate step in extracting causal relations from
correlative patterns. Due to the high risk of possible fatal decisions in
image-based clinical diagnostics, it is necessary to integrate explainable AI
into these safety-critical systems. Current explanatory methods typically
assign attribution scores to pixel regions in the input image, indicating their
importance for a model's decision. However, they fall short when explaining why
a visual feature is used. We propose a framework that utilizes interpretable
disentangled representations for downstream-task prediction. Through
visualizing the disentangled representations, we enable experts to investigate
possible causation effects by leveraging their domain knowledge. Additionally,
we deploy a multi-path attribution mapping for enriching and validating
explanations. We demonstrate the effectiveness of our approach on a synthetic
benchmark suite and two medical datasets. We show that the framework not only
acts as a catalyst for causal relation extraction but also enhances model
robustness by enabling shortcut detection without the need for testing under
distribution shifts.
- Abstract(参考訳): 説明可能なAIは、人間によって理解可能なモデル行動を記述することを目的としており、相関パターンから因果関係を抽出する中間段階と見なすことができる。
画像ベースの臨床診断における致命的な決定のリスクが高いため、これらの安全クリティカルシステムに説明可能なAIを統合する必要がある。
現在の説明法は通常、入力画像内の画素領域に属性スコアを割り当て、モデル決定の重要性を示す。
しかし、なぜビジュアル機能を使用するのかを説明すると不足する。
下流タスク予測に解釈不能な不整合表現を利用するフレームワークを提案する。
乱れた表現を視覚化することで、専門家はドメインの知識を活用して因果効果について調査できる。
さらに、説明の充実と検証のためのマルチパス属性マッピングをデプロイする。
提案手法の有効性を,総合ベンチマークスイートと2つの医療データセットで実証する。
このフレームワークは因果関係抽出の触媒として機能するだけでなく,分布シフト下でのテストを行うことなく近道検出を可能にし,モデルのロバスト性を高める。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Diffusion Model with Cross Attention as an Inductive Bias for Disentanglement [58.9768112704998]
遠方表現学習は、観測データ内の本質的要因を抽出する試みである。
我々は新しい視点と枠組みを導入し、クロスアテンションを持つ拡散モデルが強力な帰納バイアスとなることを示す。
これは、複雑な設計を必要とせず、クロスアテンションを持つ拡散モデルの強力な解離能力を明らかにする最初の研究である。
論文 参考訳(メタデータ) (2024-02-15T05:07:54Z) - Detecting Spurious Correlations via Robust Visual Concepts in Real and
AI-Generated Image Classification [12.992095539058022]
本稿では,潜在的スパイラル相関を効率的に検出する汎用手法を提案する。
提案手法は,ピクセルレベルのアノテーションを不要にしつつ,直感的な説明を提供する。
また,本手法は,生成モデル由来の下流アプリケーションに伝播する急激な相関を検出するのにも適している。
論文 参考訳(メタデータ) (2023-11-03T01:12:35Z) - Causality-Driven One-Shot Learning for Prostate Cancer Grading from MRI [1.049712834719005]
本稿では,画像中の弱い因果信号を学習し,活用する医用画像の自動分類手法を提案する。
我々のフレームワークは畳み込みニューラルネットワークのバックボーンと因果抽出モジュールで構成されている。
本研究は,特徴間の因果関係が,関連情報を識別するモデルの能力を高める上で重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2023-09-19T16:08:33Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。