論文の概要: Explaining the Black-box Smoothly- A Counterfactual Approach
- arxiv url: http://arxiv.org/abs/2101.04230v1
- Date: Mon, 11 Jan 2021 23:12:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 14:31:17.555409
- Title: Explaining the Black-box Smoothly- A Counterfactual Approach
- Title(参考訳): ブラックボックスの円滑な説明--反事実的アプローチ
- Authors: Sumedha Singla, Brian Pollack, Stephen Wallace and Kayhan
Batmanghelich
- Abstract要約: 医用イメージングアプリケーションのためのBlackBox emphCounterfactual Explainerを提案する。
本フレームワークは, 与えられた結果ラベルのセマンティック効果を徐々に強調し, 結果を説明する。
- 参考スコア(独自算出の注目度): 12.985758871588454
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a BlackBox \emph{Counterfactual Explainer} that is explicitly
developed for medical imaging applications. Classical approaches (e.g. saliency
maps) assessing feature importance do not explain \emph{how} and \emph{why}
variations in a particular anatomical region is relevant to the outcome, which
is crucial for transparent decision making in healthcare application. Our
framework explains the outcome by gradually \emph{exaggerating} the semantic
effect of the given outcome label. Given a query input to a classifier,
Generative Adversarial Networks produce a progressive set of perturbations to
the query image that gradually changes the posterior probability from its
original class to its negation. We design the loss function to ensure that
essential and potentially relevant details, such as support devices, are
preserved in the counterfactually generated images. We provide an extensive
evaluation of different classification tasks on the chest X-Ray images. Our
experiments show that a counterfactually generated visual explanation is
consistent with the disease's clinical relevant measurements, both
quantitatively and qualitatively.
- Abstract(参考訳): 医用画像アプリケーション用に開発されたBlackBox \emph{Counterfactual Explainer}を提案する。
古典的アプローチ(例)
特徴の重要性を評価することは、特定の解剖学的領域における \emph{how} と \emph{why} の変異が、医療応用における透明な意思決定に不可欠である結果に関連することを説明しない。
我々のフレームワークは、与えられた結果ラベルのセマンティック効果を徐々に強調して結果を説明する。
分類器へのクエリ入力が与えられると、生成型逆ネットワークはクエリ画像に対する漸進的な摂動の集合を生成し、元のクラスから否定へと後続確率を徐々に変化させる。
本研究は,サポートデバイスなどの本質的かつ潜在的に関係のある詳細が,偽造画像に保存されることを保証するために,損失関数を設計する。
胸部X線画像の分類課題について広範囲に評価する。
本実験は, 定量的, 質的, 定量的に, 臨床関連測定値と反事実的に発生する視覚的説明が一致していることを示した。
関連論文リスト
- Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - medXGAN: Visual Explanations for Medical Classifiers through a
Generative Latent Space [38.57696431713717]
本稿では,医用画像生成フレームワークであるmedXGANを提案する。
医用画像のドメイン知識を符号化することにより、解剖学的構造と病理を切り離すことができ、微細な可視化が可能となる。
本手法は,グラディエント重み付きクラスアクティベーションマッピング(Grad-CAM)や統合グラディエント(Integrated Gradients)などのベースラインを局所化や説明能力において上回る。
論文 参考訳(メタデータ) (2022-04-11T19:27:15Z) - Interpretable Mammographic Image Classification using Cased-Based
Reasoning and Deep Learning [20.665935997959025]
マンモグラフィーのケースベース推論を用いた新しい解釈型ニューラルネットワークアルゴリズムを提案する。
我々のネットワークは悪性度予測と、その予測を既知の医学的特徴を用いて説明する。
論文 参考訳(メタデータ) (2021-07-12T17:42:09Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Combining Similarity and Adversarial Learning to Generate Visual
Explanation: Application to Medical Image Classification [0.0]
学習フレームワークを活用して視覚的説明法を作成する。
文献のメトリクスを用いることで,この手法は最先端のアプローチよりも優れています。
大規模な胸部X線データベース上でのアプローチを検証する。
論文 参考訳(メタデータ) (2020-12-14T08:34:12Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Interpretable Deep Models for Cardiac Resynchronisation Therapy Response
Prediction [8.152884957975354]
可変オートエンコーダ(VAE)に基づく画像分類のための新しいフレームワークを提案する。
VAEは、既存の臨床知識から引き出された説明に基づいて潜伏空間を解体する。
心臓磁気共鳴画像による心臓再同期療法(CRT)に対する心筋症の反応予測の枠組みを実証した。
論文 参考訳(メタデータ) (2020-06-24T15:35:47Z) - Interpreting Medical Image Classifiers by Optimization Based
Counterfactual Impact Analysis [2.512212190779389]
医用画像に適合したモデル唾液度マッピングフレームワークを提案する。
本手法は, 工芸品を不明瞭に回避する, 強い近傍条件の塗工法に置き換える。
論文 参考訳(メタデータ) (2020-04-03T14:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。