論文の概要: A Symbolic Approach for Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2206.09638v1
- Date: Mon, 20 Jun 2022 08:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 17:11:22.276165
- Title: A Symbolic Approach for Counterfactual Explanations
- Title(参考訳): 対実的説明のためのシンボリックアプローチ
- Authors: Ryma Boumazouza (UA, CNRS, CRIL), Fahima Cheikh-Alili (UA, CNRS,
CRIL), Bertrand Mazure (UA, CNRS, CRIL), Karim Tabia (UA, CNRS, CRIL)
- Abstract要約: 本稿では,分類器の予測に反実的な説明を与えるための新しいシンボリックアプローチを提案する。
我々のアプローチは、等価なCNF式で分類器の決定関数を符号化するという意味で象徴的である。
- 参考スコア(独自算出の注目度): 18.771531343438227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper titled A Symbolic Approach for Counterfactual Explanations we
propose a novel symbolic approach to provide counterfactual explanations for a
classifier predictions. Contrary to most explanation approaches where the goal
is to understand which and to what extent parts of the data helped to give a
prediction, counterfactual explanations indicate which features must be changed
in the data in order to change this classifier prediction. Our approach is
symbolic in the sense that it is based on encoding the decision function of a
classifier in an equivalent CNF formula. In this approach, counterfactual
explanations are seen as the Minimal Correction Subsets (MCS), a well-known
concept in knowledge base reparation. Hence, this approach takes advantage of
the strengths of already existing and proven solutions for the generation of
MCS. Our preliminary experimental studies on Bayesian classifiers show the
potential of this approach on several datasets.
- Abstract(参考訳): 本稿では, 対実的説明のための記号的アプローチとして, 分類器の予測に対して, 対実的説明を提供するための新しいシンボリックアプローチを提案する。
データのどの部分が予測に役立ったかを理解することを目標とするほとんどの説明手法とは対照的に、逆ファクト的な説明は、この分類器の予測を変えるためにデータにどの機能が変更されるべきかを示す。
我々のアプローチは、等価なCNF式で分類器の決定関数を符号化するという意味で象徴的である。
このアプローチでは、反実的な説明は、知識ベースリペアレーションにおけるよく知られた概念である最小補正サブセット(MCS)と見なされる。
したがって、このアプローチは、すでに存在する実績のあるmcs生成のためのソリューションの強みを生かしている。
ベイズ分類器に関する予備的な実験的研究は、いくつかのデータセット上でこのアプローチの可能性を示している。
関連論文リスト
- Rethinking Distance Metrics for Counterfactual Explainability [53.436414009687]
本研究では, 反事実を参照領域から独立して引き出すのではなく, 基礎となるデータ分布からの参照と共同してサンプリングする, 反事実生成手法のフレーミングについて検討する。
我々は、幅広い設定に適用可能な、反ファクト的な類似性のために調整された距離メートル法を導出する。
論文 参考訳(メタデータ) (2024-10-18T15:06:50Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Viewing the process of generating counterfactuals as a source of knowledge: a new approach for explaining classifiers [0.0]
本稿では,このシミュレーションプロセスを,使用可能な知識を,後に異なる方法で生成するための情報源として捉えることを提案する。
論文 参考訳(メタデータ) (2023-09-08T12:06:48Z) - ASTERYX : A model-Agnostic SaT-basEd appRoach for sYmbolic and
score-based eXplanations [26.500149465292246]
本稿では,記号的説明とスコアに基づく説明の両方を生成できるASTERYXという汎用的アプローチを提案する。
実験結果から,提案手法の有効性と,その記号的およびスコアに基づく説明法の有効性が示唆された。
論文 参考訳(メタデータ) (2022-06-23T08:37:32Z) - A Model-Agnostic SAT-based Approach for Symbolic Explanation Enumeration [26.500149465292246]
特徴量と出力の関係を解析することにより,単一予測を局所的に説明するための説明を生成する。
提案手法では,予測モデルの命題エンコーディングとSATに基づくセッティングを用いて,2種類の記号的説明を生成する。
論文 参考訳(メタデータ) (2022-06-23T08:35:47Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Provable concept learning for interpretable predictions using
variational inference [7.0349768355860895]
安全クリティカルなアプリケーションでは、解釈可能な説明が得られない場合、実践者はニューラルネットワークを信頼することを避けます。
我々は(C)概念(L)アーニングと(P)ディディクション(CLAP)を導出する確率論的モデリングフレームワークを提案する。
本手法は最適な分類精度を保ちながら同定できることを実証する。
論文 参考訳(メタデータ) (2022-04-01T14:51:38Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - EDDA: Explanation-driven Data Augmentation to Improve Model and
Explanation Alignment [12.729179495550557]
モデル予測と説明手法の整合性を改善する手法を模索する。
我々は,新しい説明駆動型データ拡張(EDDA)手法によりこれを実現した。
これは、モデル予測のために正当領域を除外する単純な動機付け原理に基づいており、モデル予測におけるモデルの信頼性を低下させる。
論文 参考訳(メタデータ) (2021-05-29T00:42:42Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。