論文の概要: Achieving Diversity in Counterfactual Explanations: a Review and
Discussion
- arxiv url: http://arxiv.org/abs/2305.05840v1
- Date: Wed, 10 May 2023 02:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 14:45:18.988073
- Title: Achieving Diversity in Counterfactual Explanations: a Review and
Discussion
- Title(参考訳): 対実的説明における多様性の獲得 : レビューと議論
- Authors: Thibault Laugel, Adulam Jeyasothy, Marie-Jeanne Lesot, Christophe
Marsala, Marcin Detyniecki
- Abstract要約: XAI(Explainable Artificial Intelligence)の分野では、ユーザに対して、トレーニングされた決定モデルの予測を偽物例で説明する。
本稿では、この多様性の概念のために提案された多くの、時には矛盾する定義についてレビューする。
- 参考スコア(独自算出の注目度): 3.6066164404432883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the field of Explainable Artificial Intelligence (XAI), counterfactual
examples explain to a user the predictions of a trained decision model by
indicating the modifications to be made to the instance so as to change its
associated prediction. These counterfactual examples are generally defined as
solutions to an optimization problem whose cost function combines several
criteria that quantify desiderata for a good explanation meeting user needs. A
large variety of such appropriate properties can be considered, as the user
needs are generally unknown and differ from one user to another; their
selection and formalization is difficult. To circumvent this issue, several
approaches propose to generate, rather than a single one, a set of diverse
counterfactual examples to explain a prediction. This paper proposes a review
of the numerous, sometimes conflicting, definitions that have been proposed for
this notion of diversity. It discusses their underlying principles as well as
the hypotheses on the user needs they rely on and proposes to categorize them
along several dimensions (explicit vs implicit, universe in which they are
defined, level at which they apply), leading to the identification of further
research challenges on this topic.
- Abstract(参考訳): 説明可能な人工知能(XAI: Explainable Artificial Intelligence)の分野では、ユーザに対して、トレーニングされた決定モデルの予測を、関連する予測を変更するためにインスタンスに行う変更を示すことによって説明する。
これらの反実例は、一般的に、コスト関数がデシデラタの定量化基準を組み合わさった最適化問題の解として定義される。
ユーザのニーズが一般的に不明であり、ユーザによって異なるため、このようなプロパティは多種多様であり、その選択と形式化は困難である。
この問題を回避するために、いくつかのアプローチでは、予測を説明するための様々な偽例のセットを単一のものではなく、生成することを提案する。
本稿では、この多様性の概念のために提案された、しばしば矛盾する多くの定義の見直しを提案する。
それらの基本的な原則と、それらが依存するユーザのニーズに関する仮説を議論し、それらをいくつかの次元(明示と暗黙の宇宙、それらが定義され、適用されるレベル)に沿って分類することを提案し、このトピックに関するさらなる研究課題の特定に繋がる。
関連論文リスト
- Generating Counterfactual Explanations Using Cardinality Constraints [0.0]
本論文では, 原例と異なる特徴の数を制限するために, 反ファクト生成に基数制約を明示的に付加することを提案する。
これにより、より解釈が容易で不安定な対策が提供される。
論文 参考訳(メタデータ) (2024-04-11T06:33:19Z) - A multi-criteria approach for selecting an explanation from the set of counterfactuals produced by an ensemble of explainers [4.239829789304117]
そこで本研究では,マルチ基準解析に基づいて単一対実数を選択するマルチステージアンサンブル手法を提案する。
提案手法は、検討された品質指標の魅力的な妥協値を持つ、完全に実行可能な対策を生成できる。
論文 参考訳(メタデータ) (2024-03-20T19:25:11Z) - Explaining $\mathcal{ELH}$ Concept Descriptions through Counterfactual
Reasoning [3.5323691899538128]
分類を本質的に透過的に行う方法は、記述論理の概念を使用することである。
一つの解決策は、「異なる分類を得るために特徴値をどう変えなければならないか」という疑問に答えるために反事実を用いることである。
論文 参考訳(メタデータ) (2023-01-12T16:06:06Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - A Variational Inference Approach to Inverse Problems with Gamma
Hyperpriors [60.489902135153415]
本稿では,ガンマハイパープライヤを用いた階層的逆問題に対する変分反復交替方式を提案する。
提案した変分推論手法は正確な再構成を行い、意味のある不確実な定量化を提供し、実装が容易である。
論文 参考訳(メタデータ) (2021-11-26T06:33:29Z) - Uncertainty Quantification of Surrogate Explanations: an Ordinal
Consensus Approach [1.3750624267664155]
我々は, 多様な自己記述型サロゲート説明器の集合間のコンセンサスを測定することによって, 与えられた説明の不確かさを推定する。
我々は、最先端の畳み込みニューラルネットワークアンサンブルの実験を通して、このアプローチの特性を実証的に説明する。
論文 参考訳(メタデータ) (2021-11-17T13:55:58Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - Multi-Objective Counterfactual Explanations [0.7349727826230864]
本稿では, 対物探索を多目的最適化問題に変換する多目的対物法 (MOC) を提案する。
我々のアプローチは、提案する目的間のトレードオフの異なる多様な対策セットを返却するだけでなく、特徴空間における多様性も維持する。
論文 参考訳(メタデータ) (2020-04-23T13:56:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。