論文の概要: Info-CELS: Informative Saliency Map Guided Counterfactual Explanation
- arxiv url: http://arxiv.org/abs/2410.20539v1
- Date: Sun, 27 Oct 2024 18:12:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:17:52.341257
- Title: Info-CELS: Informative Saliency Map Guided Counterfactual Explanation
- Title(参考訳): Info-CELS:informative Saliency Map Guided Counterfactual Explanation
- Authors: Peiyu Li, Omar Bahri, Pouya Hosseinzadeh, Soukaïna Filali Boubrahimi, Shah Muhammad Hamdi,
- Abstract要約: 新たな対実的説明モデルCELSが導入された。
CELSは、インスタンスの興味を引いたサリエンシマップを学習し、学習したサリエンシマップによってガイドされた反ファクトな説明を生成する。
CELSを基盤とした拡張されたアプローチを提案する。
- 参考スコア(独自算出の注目度): 1.25828876338076
- License:
- Abstract: As the demand for interpretable machine learning approaches continues to grow, there is an increasing necessity for human involvement in providing informative explanations for model decisions. This is necessary for building trust and transparency in AI-based systems, leading to the emergence of the Explainable Artificial Intelligence (XAI) field. Recently, a novel counterfactual explanation model, CELS, has been introduced. CELS learns a saliency map for the interest of an instance and generates a counterfactual explanation guided by the learned saliency map. While CELS represents the first attempt to exploit learned saliency maps not only to provide intuitive explanations for the reason behind the decision made by the time series classifier but also to explore post hoc counterfactual explanations, it exhibits limitations in terms of high validity for the sake of ensuring high proximity and sparsity. In this paper, we present an enhanced approach that builds upon CELS. While the original model achieved promising results in terms of sparsity and proximity, it faced limitations in validity. Our proposed method addresses this limitation by removing mask normalization to provide more informative and valid counterfactual explanations. Through extensive experimentation on datasets from various domains, we demonstrate that our approach outperforms the CELS model, achieving higher validity and producing more informative explanations.
- Abstract(参考訳): 解釈可能な機械学習アプローチの需要が拡大するにつれて、モデル決定のための情報的説明を提供する上で、人間による関与の必要性が高まっている。
これは、AIベースのシステムにおける信頼と透明性を構築するために必要であり、説明可能な人工知能(XAI)分野の出現につながる。
近年,新たな対実的説明モデルであるCELSが導入されている。
CELSは、インスタンスの興味を引いたサリエンシマップを学習し、学習したサリエンシマップによってガイドされた反ファクトな説明を生成する。
CELSは、時系列分類器による決定の背後にある理由の直感的な説明を提供するだけでなく、ポストホックな事実的説明を探求するために、学習されたサリエンシマップを利用する最初の試みである一方で、高い近接性と疎通性を確保するために、高い妥当性の限界を示す。
本稿では,CELSを基盤とした改良されたアプローチを提案する。
当初のモデルでは、疎さと近接性の点で有望な結果を得たが、有効性には限界があった。
提案手法は,マスクの正規化を除去し,より情報的かつ有効な対実的説明を提供することにより,この制限に対処する。
各種ドメインからのデータセットを広範囲に実験することにより,CELSモデルよりも優れた精度を示し,高い妥当性を示し,より情報的な説明を与える。
関連論文リスト
- Explainable Image Recognition via Enhanced Slot-attention Based Classifier [28.259040737540797]
本稿では,修正スロットアテンション機構に基づく視覚的に説明可能な分類器であるESCOUTERを紹介する。
ESCOUTERは、高い分類精度を提供するだけでなく、意思決定の背後にある理由についてより透明な洞察を提供することによって、自分自身を区別している。
ESCOUTER専用の新しい損失関数は、モデルの振舞いを微調整し、肯定的な説明と否定的な説明の切り替えを可能にするように設計されている。
論文 参考訳(メタデータ) (2024-07-08T05:05:43Z) - CoLa-DCE -- Concept-guided Latent Diffusion Counterfactual Explanations [2.3083192626377755]
概念誘導型遅延拡散対実例(CoLa-DCE)を紹介する。
CoLa-DCEは、概念選択と空間条件に関する高度な制御を持つ任意の分類器に対して、概念誘導対物を生成する。
我々は,複数の画像分類モデルとデータセットにまたがって,最小化と理解性のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2024-06-03T14:27:46Z) - T-Explainer: A Model-Agnostic Explainability Framework Based on Gradients [5.946429628497358]
T-ExplainerはTaylorの拡張に基づく新しい局所的な帰属説明器である。
局所的精度や一貫性などの望ましい特性があり、T-Explainerは複数の実行で安定している。
論文 参考訳(メタデータ) (2024-04-25T10:40:49Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Motif-guided Time Series Counterfactual Explanations [1.1510009152620664]
本稿では,ポストホックな反事実的説明を直感的に生成する新しいモデルを提案する。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
論文 参考訳(メタデータ) (2022-11-08T17:56:50Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。