論文の概要: CALIME: Causality-Aware Local Interpretable Model-Agnostic Explanations
- arxiv url: http://arxiv.org/abs/2212.05256v1
- Date: Sat, 10 Dec 2022 10:12:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 15:28:09.263517
- Title: CALIME: Causality-Aware Local Interpretable Model-Agnostic Explanations
- Title(参考訳): CALIME:Causality-Aware Local Interpretable Model-Agnostic Explanations
- Authors: Martina Cinquini, Riccardo Guidotti
- Abstract要約: 本稿では,XAI手法に因果知識を統合することで,信頼性を高め,ユーザが説明の質を評価することを支援することに焦点を当てる。
本稿では、入力インスタンスの周辺で生成されたデータに因果関係を明示的にエンコードして説明する、広く使われている局所的およびモデルに依存しない説明器の新たな拡張を提案する。
- 参考スコア(独自算出の注目度): 9.339341973173804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A significant drawback of eXplainable Artificial Intelligence (XAI)
approaches is the assumption of feature independence. This paper focuses on
integrating causal knowledge in XAI methods to increase trust and help users
assess explanations' quality. We propose a novel extension to a widely used
local and model-agnostic explainer that explicitly encodes causal relationships
in the data generated around the input instance to explain. Extensive
experiments show that our method achieves superior performance comparing the
initial one for both the fidelity in mimicking the black-box and the stability
of the explanations.
- Abstract(参考訳): eXplainable Artificial Intelligence (XAI)アプローチの重大な欠点は、機能独立の仮定である。
本稿では,xai手法に因果知識を統合することで,ユーザによる説明の質評価を支援する。
本稿では,入力インスタンス周辺で生成されたデータの因果関係を明示的にエンコードする,広く使用される局所的およびモデル非依存な説明器への新たな拡張を提案する。
実験結果から,ブラックボックスの再現性と説明の安定性の両面において,初期手法と比較して優れた性能が得られた。
関連論文リスト
- AcME-AD: Accelerated Model Explanations for Anomaly Detection [5.702288833888639]
AcME-ADは相互運用性のためのモデルに依存しない効率的なソリューションです。
ローカルな特徴重要度スコアと、各異常に寄与する要因を隠蔽するWhat-if分析ツールを提供する。
本稿では,AcME-ADの基礎とその既存手法に対する利点を解明し,合成データと実データの両方を用いて,その有効性を検証する。
論文 参考訳(メタデータ) (2024-03-02T16:11:58Z) - Assessing Fidelity in XAI post-hoc techniques: A Comparative Study with
Ground Truth Explanations Datasets [0.0]
入力への出力情報のバックプロパゲーションに基づくXAI手法により精度と信頼性が向上する。
バックプロパゲーション法は、よりノイズの多いサリエンシマップを生成する傾向がある。
発見はXAI法の進歩に重要な意味を持つ。
論文 参考訳(メタデータ) (2023-11-03T14:57:24Z) - Faithful Knowledge Graph Explanations for Commonsense Reasoning [13.064099546001627]
現在のKGに基づく説明手法の大きな弱点の1つは、評価中の経路復号の忠実さを見渡すことである。
この監視により、元のモデル予測からしばしば分岐するグラフエンコーダの分布が導かれる。
本稿では,グラフエンコーダと対象モデルとを整合させて,その後の説明の忠実度を向上させる新しいアルゴリズムTeGDAを紹介する。
論文 参考訳(メタデータ) (2023-10-07T20:29:45Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [111.75423966239092]
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
KSDに基づく新しいアルゴリズムを開発した。 textbfSTEin information dirtextbfEcted Explor for model-based textbfReinforcement Learntextbfing。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Integrating Prior Knowledge in Post-hoc Explanations [3.6066164404432883]
ポストホック解釈可能性法は、訓練された決定モデルの予測をユーザーに説明することを目的としている。
本稿では,事前知識を解釈可能性の目標に明示的に統合するコスト関数を提案する。
本稿では,KICE(Knowledge Integration in Counterfactual Explanation)と呼ばれる新しい解釈可能性手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T13:09:53Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。