論文の概要: This changes to that : Combining causal and non-causal explanations to
generate disease progression in capsule endoscopy
- arxiv url: http://arxiv.org/abs/2212.02506v1
- Date: Mon, 5 Dec 2022 12:46:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 15:29:36.823554
- Title: This changes to that : Combining causal and non-causal explanations to
generate disease progression in capsule endoscopy
- Title(参考訳): この変化 : カプセル内視鏡における疾患進展の因果的説明と非因果的説明を組み合わせること
- Authors: Anuja Vats, Ahmed Mohammed, Marius Pedersen, Nirmalie Wiratunga
- Abstract要約: 本稿では,モデル依存型と非依存型の両方を組み合わせて説明セットを生成する統一的説明手法を提案する。
生成された説明はサンプルの近傍で一貫性があり、画像の内容と結果の因果関係を明らかにすることができる。
- 参考スコア(独自算出の注目度): 5.287156503763459
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the unequivocal need for understanding the decision processes of deep
learning networks, both modal-dependent and model-agnostic techniques have
become very popular. Although both of these ideas provide transparency for
automated decision making, most methodologies focus on either using the
modal-gradients (model-dependent) or ignoring the model internal states and
reasoning with a model's behavior/outcome (model-agnostic) to instances. In
this work, we propose a unified explanation approach that given an instance
combines both model-dependent and agnostic explanations to produce an
explanation set. The generated explanations are not only consistent in the
neighborhood of a sample but can highlight causal relationships between image
content and the outcome. We use Wireless Capsule Endoscopy (WCE) domain to
illustrate the effectiveness of our explanations. The saliency maps generated
by our approach are comparable or better on the softmax information score.
- Abstract(参考訳): ディープラーニングネットワークの意思決定プロセスを理解するための明確な必要性から,モダル依存とモデル非依存の両方の技術が広く普及している。
これらのアイデアはどちらも自動意思決定のための透明性を提供しますが、ほとんどの方法論は、モデル内部の状態を無視したり、モデルの振る舞い/アウトカム(モデルに依存しない)をインスタンスに推論したりすることに重点を置いています。
本研究では,モデル依存型と非依存型の両方を組み合わせて説明セットを生成する統一的説明手法を提案する。
生成された説明はサンプルの近傍で一貫性があるだけでなく、画像の内容と結果との因果関係を強調することができる。
我々は、無線カプセル内視鏡(WCE)ドメインを用いて、説明の有効性を説明する。
提案手法は,softmax情報スコアと同等かそれ以上か,あるいは良好である。
関連論文リスト
- CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Improving Explainability of Disentangled Representations using
Multipath-Attribution Mappings [12.145748796751619]
下流タスク予測に解釈不能な不整合表現を利用するフレームワークを提案する。
提案手法の有効性を,総合ベンチマークスイートと2つの医療データセットで実証する。
論文 参考訳(メタデータ) (2023-06-15T10:52:29Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Towards Trustable Skin Cancer Diagnosis via Rewriting Model's Decision [12.306688233127312]
本稿では,モデルトレーニングプロセスにHuman-in-the-loopフレームワークを導入する。
提案手法は, 共起因子を自動的に検出する。
容易に得られる概念の模範を用いて、相反する概念を学習することができる。
論文 参考訳(メタデータ) (2023-03-02T01:02:18Z) - Causality-Aware Local Interpretable Model-Agnostic Explanations [7.412445894287709]
本稿では,インスタンスを取り巻くデータ内の明確な因果関係をエンコードする,広く使われている局所的およびモデルに依存しない説明器の拡張を提案する。
提案手法は,ブラックボックスモデルのメカニズムと生成した説明の一貫性と信頼性を忠実に再現する上で,元の手法を克服する。
論文 参考訳(メタデータ) (2022-12-10T10:12:27Z) - Agree to Disagree: When Deep Learning Models With Identical
Architectures Produce Distinct Explanations [0.0]
我々は,MIMIC-CXRデータセットの特定問題を強調するために,説明整合性の尺度を導入する。
同じモデルの説明がありますが、異なるトレーニングセットアップでは一貫性が低く、平均で$approx$ 33%です。
モデル説明の現在のトレンドは、実生活の医療アプリケーションにおけるモデル展開のリスクを軽減するのに十分ではないと結論づける。
論文 参考訳(メタデータ) (2021-05-14T12:16:47Z) - A Twin Neural Model for Uplift [59.38563723706796]
Upliftは条件付き治療効果モデリングの特定のケースです。
相対リスクのベイズ解釈との関連性を利用して定義した新たな損失関数を提案する。
本提案手法は,シミュレーション設定の最先端と大規模ランダム化実験による実データとの競合性を示す。
論文 参考訳(メタデータ) (2021-05-11T16:02:39Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。