論文の概要: Refining Counterfactual Explanations With Joint-Distribution-Informed Shapley Towards Actionable Minimality
- arxiv url: http://arxiv.org/abs/2410.05419v1
- Date: Mon, 7 Oct 2024 18:31:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 18:47:31.682521
- Title: Refining Counterfactual Explanations With Joint-Distribution-Informed Shapley Towards Actionable Minimality
- Title(参考訳): 共分散インフォームドシェープによるファクトリファクト説明の修正 : 動作可能な最小化に向けて
- Authors: Lei You, Yijun Bian, Lele Cao,
- Abstract要約: 対実的説明(CE)は、観測データによく似ているが、異なる機械学習(ML)モデル出力を生成するデータポイントを特定する。
既存のCEメソッドは、説明に含まれる不要な特徴の変化のため、実行可能効率が欠如していることが多い。
本稿では,CEの有効性を維持しつつ,必要な特徴変化を最小限に抑える手法を提案する。
- 参考スコア(独自算出の注目度): 6.770853093478073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations (CE) identify data points that closely resemble the observed data but produce different machine learning (ML) model outputs, offering critical insights into model decisions. Despite the diverse scenarios, goals and tasks to which they are tailored, existing CE methods often lack actionable efficiency because of unnecessary feature changes included within the explanations that are presented to users and stakeholders. We address this problem by proposing a method that minimizes the required feature changes while maintaining the validity of CE, without imposing restrictions on models or CE algorithms, whether instance- or group-based. The key innovation lies in computing a joint distribution between observed and counterfactual data and leveraging it to inform Shapley values for feature attributions (FA). We demonstrate that optimal transport (OT) effectively derives this distribution, especially when the alignment between observed and counterfactual data is unclear in used CE methods. Additionally, a counterintuitive finding is uncovered: it may be misleading to rely on an exact alignment defined by the CE generation mechanism in conducting FA. Our proposed method is validated on extensive experiments across multiple datasets, showcasing its effectiveness in refining CE towards greater actionable efficiency.
- Abstract(参考訳): 対実的説明(CE)は、観測データによく似ているが、異なる機械学習(ML)モデル出力を生成するデータポイントを特定し、モデル決定に重要な洞察を提供する。
さまざまなシナリオ、目標、タスクが調整されているにも関わらず、既存のCEメソッドは、ユーザやステークホルダに提示される説明に含まれる不要な機能変更のため、実行可能な効率性が欠如することが多い。
本稿では,モデルやCEアルゴリズムに制約を加えることなく,CEの有効性を維持しつつ,必要な特徴変化を最小限に抑える手法を提案する。
鍵となるイノベーションは、観測データと反ファクトデータの間の共同分散を計算し、それを活用してShapley値に特徴属性(FA)を知らせることである。
最適輸送(OT)はこの分布を効果的に導出することを示し,特にCE法では観測データと対実データとの整合が不明確である。
さらに、逆直観的な発見が発見され、FAを実行する際にCE生成機構によって定義される正確なアライメントに依存することが誤解を招く可能性がある。
提案手法は,複数のデータセットにわたる広範囲な実験で検証され,CEを改良する際の有効性を示す。
関連論文リスト
- Verified Training for Counterfactual Explanation Robustness under Data
Shift [18.156341188646348]
対実的説明(CE)は、予測を望ましいクラスに変更するために入力にどのような変更が必要なのかを記述することによって、機械学習モデルの解釈可能性を高める。
既存のアプローチは、単一の固定されたモデルに焦点を当ててCEを生成し、CEの将来的な妥当性に関する正式な保証は提供しない。
本稿では,分類器と説明器を協調的に訓練し,生成したCEのロバスト性をモデルシフトに明示的に考慮するアプローチであるVeriTraCERを紹介する。
論文 参考訳(メタデータ) (2024-03-06T15:06:16Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Distributional Counterfactual Explanations With Optimal Transport [7.597676579494146]
対実的説明 (CE) は、ブラックボックスの意思決定モデルに関する洞察を提供するための事実上の方法である。
本稿では,観測データの分布特性に焦点を移すDCE(distributal counterfactual explanation)を提案する。
論文 参考訳(メタデータ) (2024-01-23T21:48:52Z) - Leveraging Diffusion Disentangled Representations to Mitigate Shortcuts
in Underspecified Visual Tasks [92.32670915472099]
拡散確率モデル(DPM)を用いた合成カウンターファクトの生成を利用したアンサンブルの多様化フレームワークを提案する。
拡散誘導型分散化は,データ収集を必要とする従来の手法に匹敵するアンサンブル多様性を達成し,ショートカットからの注意を回避できることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:37:52Z) - Counterfactual Explanation via Search in Gaussian Mixture Distributed
Latent Space [19.312306559210125]
対実説明(CE)は2つの問題に対処するアルゴリズム・リコースにおいて重要なツールである。
簡単に理解しやすい説明を提供することによって、AIシステムに対するユーザのインタラクションを導くことは、AIシステムの信頼できる採用と長期的な受け入れに不可欠である。
本稿では,まずオートエンコーダの潜伏空間をガウス分布の混合として形成することにより,事前学習されたバイナリ分類器のCEを生成する手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T10:21:26Z) - Finding Regions of Counterfactual Explanations via Robust Optimization [0.0]
反事実的説明 (CE) は、モデルの決定が変化する最小の摂動データポイントである。
既存のメソッドのほとんどは1つのCEしか提供できないが、ユーザにとっては達成できないかもしれない。
特徴がわずかに乱れた後も有効であるロバストCEを計算するための反復的手法を導出する。
論文 参考訳(メタデータ) (2023-01-26T14:06:26Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Estimating the Effects of Continuous-valued Interventions using
Generative Adversarial Networks [103.14809802212535]
我々は,連続的評価介入の効果を推定する問題に対処するため,GAN(Generative Adversarial Network)フレームワークを構築した。
我々のモデルであるSCIGANは柔軟であり、いくつかの異なる継続的な介入に対する対実的な結果の同時推定が可能である。
継続的な介入に移行することによって生じる課題に対処するために、差別者のための新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-27T18:46:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。