論文の概要: RealAC: A Domain-Agnostic Framework for Realistic and Actionable Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2508.10455v1
- Date: Thu, 14 Aug 2025 08:51:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.239058
- Title: RealAC: A Domain-Agnostic Framework for Realistic and Actionable Counterfactual Explanations
- Title(参考訳): RealAC: 現実的で実行可能な対実的説明のためのドメインに依存しないフレームワーク
- Authors: Asiful Arefeen, Shovito Barua Soumma, Hassan Ghasemzadeh,
- Abstract要約: RealACは、現実的で行動可能な対物を生成するためのドメインに依存しないフレームワークである。
RealACは、明示的なドメイン知識に頼ることなく、複雑な機能間の依存関係を自動的に保存する。
- 参考スコア(独自算出の注目度): 7.578439720012189
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations provide human-understandable reasoning for AI-made decisions by describing minimal changes to input features that would alter a model's prediction. To be truly useful in practice, such explanations must be realistic and feasible -- they should respect both the underlying data distribution and user-defined feasibility constraints. Existing approaches often enforce inter-feature dependencies through rigid, hand-crafted constraints or domain-specific knowledge, which limits their generalizability and ability to capture complex, nonlinear relations inherent in data. Moreover, they rarely accommodate user-specified preferences and suggest explanations that are causally implausible or infeasible to act upon. We introduce RealAC, a domain-agnostic framework for generating realistic and actionable counterfactuals. RealAC automatically preserves complex inter-feature dependencies without relying on explicit domain knowledge -- by aligning the joint distributions of feature pairs between factual and counterfactual instances. The framework also allows end-users to ``freeze'' attributes they cannot or do not wish to change by suppressing change in frozen features during optimization. Evaluations on three synthetic and two real datasets demonstrate that RealAC balances realism with actionability. Our method outperforms state-of-the-art baselines and Large Language Model-based counterfactual generation techniques in causal edge score, dependency preservation score, and IM1 realism metric and offers a solution for causality-aware and user-centric counterfactual generation.
- Abstract(参考訳): カウンターファクト的な説明は、モデルの予測を変える可能性のある入力機能への最小限の変更を記述することによって、AIによる決定に対する人間の理解可能な推論を提供する。
実際に真に有用であるためには、そのような説明は現実的で実現可能でなければならない -- 基礎となるデータ分散とユーザ定義可能な制約の両方を尊重する必要がある。
既存のアプローチはしばしば、厳密で手作りの制約やドメイン固有の知識を通じて機能間の依存関係を強制する。
さらに、ユーザが指定した好みに適応することは滅多になく、適切に理解できない、あるいは実行不可能な説明を提案する。
本稿では,現実的で行動可能な対物を生成するためのドメインに依存しないフレームワークであるRealACを紹介する。
RealACは、ファクトとデファクトのインスタンス間の機能ペアの結合分布を調整することで、明示的なドメイン知識に頼ることなく、複雑な機能間の依存関係を自動的に保存する。
フレームワークはまた、最適化中に凍結機能の変更を抑えることで、エンドユーザが変更できない、あるいは望まない‘フリーズ’属性を許可する。
3つの合成データセットと2つの実データセットの評価は、RealACがリアリズムと行動可能性のバランスをとることを示している。
提案手法は, 因果的エッジスコア, 依存性保存スコア, IM1リアリズムメトリックにおいて, 最先端のベースラインと大規模言語モデルに基づく反ファクト生成技術より優れ, 因果的認識とユーザ中心の反ファクト生成のためのソリューションを提供する。
関連論文リスト
- CountARFactuals -- Generating plausible model-agnostic counterfactual explanations with adversarial random forests [9.598670034160763]
ARFは可視性尺度として機能するか、あるいは反現実的な説明を直接生成することができる。
訓練や計算の効率化が容易で、連続データや分類データを自然に扱うことができ、空間性などのデシラタを直接的な方法で統合することができる。
論文 参考訳(メタデータ) (2024-04-04T15:10:13Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Context-aware feature attribution through argumentation [0.0]
我々はCA-FATA (Context-Aware Feature Attribution Through Argumentation) と呼ばれる新しい特徴属性フレームワークを定義する。
我々のフレームワークは、各特徴を、予測を支援したり、攻撃したり、中和したりできる議論として扱うことによって、議論の力を利用する。
論文 参考訳(メタデータ) (2023-10-24T20:02:02Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Measuring axiomatic soundness of counterfactual image models [24.749839878737884]
本稿では,画像の反現実性を評価するための一般的な枠組みを提案する。
我々は,反事実を入力変数とその親と反事実親の関数として定義する。
本稿では、これらの指標を用いて、異なる近似反事実推論モデルの比較と選択を行う方法について述べる。
論文 参考訳(メタデータ) (2023-03-02T13:59:07Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。