論文の概要: Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations
- arxiv url: http://arxiv.org/abs/2309.04676v1
- Date: Sat, 9 Sep 2023 04:05:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 17:10:25.898456
- Title: Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations
- Title(参考訳): 最小飽和摂動によるフレキシブルおよびロバストな対実的説明
- Authors: Yongjie Wang, Hangwei Qian, Yongjie Liu, Wei Guo, Chunyan Miao
- Abstract要約: 我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
- 参考スコア(独自算出の注目度): 56.941276017696076
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Counterfactual explanations (CFEs) exemplify how to minimally modify a
feature vector to achieve a different prediction for an instance. CFEs can
enhance informational fairness and trustworthiness, and provide suggestions for
users who receive adverse predictions. However, recent research has shown that
multiple CFEs can be offered for the same instance or instances with slight
differences. Multiple CFEs provide flexible choices and cover diverse
desiderata for user selection. However, individual fairness and model
reliability will be damaged if unstable CFEs with different costs are returned.
Existing methods fail to exploit flexibility and address the concerns of
non-robustness simultaneously. To address these issues, we propose a
conceptually simple yet effective solution named Counterfactual Explanations
with Minimal Satisfiable Perturbations (CEMSP). Specifically, CEMSP constrains
changing values of abnormal features with the help of their semantically
meaningful normal ranges. For efficiency, we model the problem as a Boolean
satisfiability problem to modify as few features as possible. Additionally,
CEMSP is a general framework and can easily accommodate more practical
requirements, e.g., casualty and actionability. Compared to existing methods,
we conduct comprehensive experiments on both synthetic and real-world datasets
to demonstrate that our method provides more robust explanations while
preserving flexibility.
- Abstract(参考訳): counterfactual descriptions (cfes)は、インスタンスの異なる予測を達成するために、機能ベクトルを最小に修正する方法を例示する。
CFEは、情報公正性と信頼性を高め、有害な予測を受けたユーザーに提案する。
しかし、最近の研究では、複数のCFEが、少しの違いのある同じインスタンスやインスタンスに対して提供できることが示されている。
複数のCFEがフレキシブルな選択を提供し、ユーザ選択のためにさまざまなデシラタをカバーする。
しかし、コストの異なる不安定なCFEが返却されると、個々の公正性とモデルの信頼性が損なわれる。
既存の方法は柔軟性を活用できず、非破壊性の懸念に同時に対処する。
これらの課題に対処するために,最小満足度摂動(CEMSP)を用いた対実的説明法という概念的にシンプルで効果的な解を提案する。
特に、CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
効率性のために、問題をブール満足性問題としてモデル化し、可能な限り少数の機能を修正する。
さらに、CEMSPは一般的なフレームワークであり、例えば、カジュアル性や実行可能性といった、より実用的な要件に容易に対応できる。
既存の手法と比較して,合成データと実世界のデータセットの両方について総合的な実験を行い,柔軟性を維持しつつ,より堅牢な説明を提供することを実証する。
関連論文リスト
- Counterfactual Explanations with Probabilistic Guarantees on their Robustness to Model Change [4.239829789304117]
対実的説明(CFE)は、望ましいアウトプットを達成するために、機械学習モデルへの入力の調整方法をユーザに案内する。
この問題に対処する現在のメソッドは、しばしば特定のモデルや変更タイプのみをサポートする。
本稿では,任意のモデルや変更タイプに対して確率的保証を提供するCFEの生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T03:35:53Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Generating robust counterfactual explanations [60.32214822437734]
カウンターファクトの質は、現実主義、行動可能性、妥当性、堅牢性など、いくつかの基準に依存する。
本稿では, 対実的入力変化に対するロバスト性に着目し, 対実的入力変化に対するロバスト性に着目した。
我々は,このトレードオフを効果的に管理し,ユーザに対して最小限の堅牢性を保証するとともに,ロバストなデファクトを生成する新しいフレームワークであるCROCOを提案する。
論文 参考訳(メタデータ) (2023-04-24T09:00:31Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Causality-based Counterfactual Explanation for Classification Models [11.108866104714627]
本稿では,プロトタイプに基づく対実的説明フレームワーク(ProCE)を提案する。
ProCEは、カウンターファクトデータの特徴の根底にある因果関係を保存することができる。
さらに,提案手法を応用した多目的遺伝的アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-05-03T09:25:59Z) - A Few Good Counterfactuals: Generating Interpretable, Plausible and
Diverse Counterfactual Explanations [14.283774141604997]
良い、ネイティブな反事実は、ほとんどのデータセットでまれに発生することが示されています。
最も一般的な方法は、盲目の摂動を用いて合成反実数を生成する。
本稿では,オリジナルデータセットのネイティブな反事実を適応させて,ばらばらで多様な合成反事実を生成する手法について述べる。
論文 参考訳(メタデータ) (2021-01-22T11:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。