論文の概要: Good Counterfactuals and Where to Find Them: A Case-Based Technique for
Generating Counterfactuals for Explainable AI (XAI)
- arxiv url: http://arxiv.org/abs/2005.13997v1
- Date: Tue, 26 May 2020 14:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 00:15:23.943511
- Title: Good Counterfactuals and Where to Find Them: A Case-Based Technique for
Generating Counterfactuals for Explainable AI (XAI)
- Title(参考訳): 優れたカウンセリングと発見方法: 説明可能なAI(XAI)のためのカウンセリング手法
- Authors: Mark T. Keane, Barry Smyth
- Abstract要約: 一般に使われている多くのデータセットは、説明目的のために優れた反事実をほとんど持たないことを示す。
本稿では, 事例ベースにおける対実的ポテンシャルと説明的カバレッジに関する新しいアイデアを用いて, 対実的事実を生成するための新しい事例ベースアプローチを提案する。
- 参考スコア(独自算出の注目度): 18.45278329799526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, a groundswell of research has identified the use of counterfactual
explanations as a potentially significant solution to the Explainable AI (XAI)
problem. It is argued that (a) technically, these counterfactual cases can be
generated by permuting problem-features until a class change is found, (b)
psychologically, they are much more causally informative than factual
explanations, (c) legally, they are GDPR-compliant. However, there are issues
around the finding of good counterfactuals using current techniques (e.g.
sparsity and plausibility). We show that many commonly-used datasets appear to
have few good counterfactuals for explanation purposes. So, we propose a new
case based approach for generating counterfactuals using novel ideas about the
counterfactual potential and explanatory coverage of a case-base. The new
technique reuses patterns of good counterfactuals, present in a case-base, to
generate analogous counterfactuals that can explain new problems and their
solutions. Several experiments show how this technique can improve the
counterfactual potential and explanatory coverage of case-bases that were
previously found wanting.
- Abstract(参考訳): 近年の研究では、実証可能なAI(XAI)問題に対する潜在的に重要な解決策として、反事実的説明の使用が特定されている。
と論じている。
(a) 技術的には、これらの偽のケースは、クラス変更が見つかるまで問題特徴を置換することによって生成することができる。
b) 心理的には、それらは事実の説明よりもずっと慎重な情報である。
(c) 法的にはGDPRに準拠している。
しかし、現在の手法(例えば、ポーシャリティと可視性)による優れたカウンターファクトリーの発見には問題がある。
一般に使用されるデータセットの多くは、説明目的に良い反事実がほとんどないように見える。
そこで本研究では,ケースベースにおける反事実可能性と説明的範囲に関する新しいアイデアを用いて,反事実を生成する新しいケースベースアプローチを提案する。
この新しいテクニックは、ケースベースに存在する優れた反事実のパターンを再利用して、新しい問題とその解決策を説明できる類似の反事実を生成する。
いくつかの実験は、この手法が、以前望まれていたケースベースに対する反ファクト的ポテンシャルと説明的カバレッジを改善する方法を示している。
関連論文リスト
- AR-Pro: Counterfactual Explanations for Anomaly Repair with Formal Properties [12.71326587869053]
異常検出は、重大な誤りや不審な振る舞いを識別するために広く用いられているが、現在の手法には解釈可能性がない。
本稿では,既存手法の共通特性を活用して,異常検出のための対実的説明を導入する。
このアプローチの重要な利点は、ドメインに依存しない説明可能性の形式的な仕様を可能にすることである。
論文 参考訳(メタデータ) (2024-10-31T17:43:53Z) - Counterfactual and Semifactual Explanations in Abstract Argumentation: Formal Foundations, Complexity and Computation [19.799266797193344]
議論ベースのシステムは、意思決定プロセスをサポートしながら説明責任を欠くことが多い。
対実的・半実的な説明は解釈可能性のテクニックである。
本稿では,制約の弱いArgumentation Frameworkにおいて,逆ファクトおよび半ファクトのクエリを符号化可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T07:27:27Z) - Longitudinal Counterfactuals: Constraints and Opportunities [59.11233767208572]
本稿では,反ファクトの妥当性を評価・改善するために,縦断データを用いた手法を提案する。
本研究では, 縦差と反実差を比較する指標を開発し, 先行観測した変化と反実差の類似性を評価する。
論文 参考訳(メタデータ) (2024-02-29T20:17:08Z) - Deep Backtracking Counterfactuals for Causally Compliant Explanations [57.94160431716524]
本稿では,DeepBC(Deep Backtracking counterfactuals)と呼ばれる手法を導入する。
特別な場合として、我々の定式化は、対実的説明の分野における手法に還元される。
論文 参考訳(メタデータ) (2023-10-11T17:11:10Z) - Rethinking Complex Queries on Knowledge Graphs with Neural Link Predictors [58.340159346749964]
本稿では,証明可能な推論能力を備えた複雑なクエリを用いたエンドツーエンド学習を支援するニューラルシンボリック手法を提案する。
これまでに検討されていない10種類の新しいクエリを含む新しいデータセットを開発する。
提案手法は,新しいデータセットにおいて先行手法を著しく上回り,既存データセットにおける先行手法を同時に上回っている。
論文 参考訳(メタデータ) (2023-04-14T11:35:35Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - DISSECT: Disentangled Simultaneous Explanations via Concept Traversals [33.65478845353047]
DISSECTは、ディープラーニングモデル推論を説明するための新しいアプローチである。
DISSECTは、分類器の信号から生成モデルを訓練することにより、異なる概念の分類器固有の「名詞」を発見する方法を提供する。
DISSECTは,複数の概念を分離し,共同訓練による推論と結合したCTを生成する。
論文 参考訳(メタデータ) (2021-05-31T17:11:56Z) - A Few Good Counterfactuals: Generating Interpretable, Plausible and
Diverse Counterfactual Explanations [14.283774141604997]
良い、ネイティブな反事実は、ほとんどのデータセットでまれに発生することが示されています。
最も一般的な方法は、盲目の摂動を用いて合成反実数を生成する。
本稿では,オリジナルデータセットのネイティブな反事実を適応させて,ばらばらで多様な合成反事実を生成する手法について述べる。
論文 参考訳(メタデータ) (2021-01-22T11:30:26Z) - On Generating Plausible Counterfactual and Semi-Factual Explanations for
Deep Learning [15.965337956587373]
PlausIble Exceptionality-based Contrastive Explanations (PIECE) は、テストイメージにおけるすべての例外的特徴を、対実クラスの観点から正規化するように修正する。
2つの制御された実験は、PIECEを文献上の他のものと比較し、PIECEはいくつかの尺度において最も妥当な反事実を生成するだけでなく、最良の半事実も生成することを示した。
論文 参考訳(メタデータ) (2020-09-10T14:48:12Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。