論文の概要: DiCoFlex: Model-agnostic diverse counterfactuals with flexible control
- arxiv url: http://arxiv.org/abs/2505.23700v1
- Date: Thu, 29 May 2025 17:37:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:08.041286
- Title: DiCoFlex: Model-agnostic diverse counterfactuals with flexible control
- Title(参考訳): DiCoFlex: フレキシブルコントロールを備えたモデルに依存しない多様なカウンターファクト
- Authors: Oleksii Furman, Ulvi Movsum-zada, Patryk Marszalek, Maciej Zięba, Marek Śmieja,
- Abstract要約: モデルに依存しない条件付き生成フレームワークであるDiCoFlexを提案する。
DiCoFlexは、妥当性、多様性、近接性、制約の順守という点で、既存の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations play a pivotal role in explainable artificial intelligence (XAI) by offering intuitive, human-understandable alternatives that elucidate machine learning model decisions. Despite their significance, existing methods for generating counterfactuals often require constant access to the predictive model, involve computationally intensive optimization for each instance and lack the flexibility to adapt to new user-defined constraints without retraining. In this paper, we propose DiCoFlex, a novel model-agnostic, conditional generative framework that produces multiple diverse counterfactuals in a single forward pass. Leveraging conditional normalizing flows trained solely on labeled data, DiCoFlex addresses key limitations by enabling real-time user-driven customization of constraints such as sparsity and actionability at inference time. Extensive experiments on standard benchmark datasets show that DiCoFlex outperforms existing methods in terms of validity, diversity, proximity, and constraint adherence, making it a practical and scalable solution for counterfactual generation in sensitive decision-making domains.
- Abstract(参考訳): 人工知能(XAI)では、機械学習モデル決定を解明する直感的で人間に理解可能な代替手段を提供することで、カウンターファクト的な説明が重要な役割を担っている。
その重要性にもかかわらず、カウンターファクトを生成する既存の方法は予測モデルへの一定のアクセスを必要とし、各インスタンスの計算集約的な最適化を伴い、再トレーニングなしに新しいユーザ定義制約に適応する柔軟性が欠如している。
本稿では,新しいモデルに依存しない条件付き生成フレームワークであるDiCoFlexを提案する。
ラベル付きデータのみに基づいてトレーニングされた条件付き正規化フローを活用することで、DiCoFlexは、推論時のスパーシリティやアクションビリティといった制約をリアルタイムにユーザ主導でカスタマイズ可能にすることで、重要な制限に対処する。
標準ベンチマークデータセットに対する大規模な実験によると、DiCoFlexは、妥当性、多様性、近接性、制約の順守という点で既存のメソッドよりも優れており、センシティブな意思決定領域における反実生成のための実用的でスケーラブルなソリューションである。
関連論文リスト
- UGCE: User-Guided Incremental Counterfactual Exploration [2.2789818122188925]
対実的説明(CFE)は、モデル出力を変更する最小限の機能変化を識別することによって、機械学習の予測を解釈するための一般的なアプローチである。
既存のメソッドはそのような反復的な更新をサポートしず、代わりに変更毎にスクラッチから説明を再計算する。
UGCE(User-Guided Incremental Counterfactual Exploration)は,遺伝的アルゴリズムをベースとした,ユーザ制約の進展に応じて,逆ファクトアルを漸進的に更新するフレームワークである。
論文 参考訳(メタデータ) (2025-05-27T15:24:43Z) - Flexible Counterfactual Explanations with Generative Models [1.3499500088995464]
本稿では, 対物テンプレートを組み込んだフレームワークであるFlexible Counterfactual Explanationsを紹介する。
FCEGANは、モデルの再トレーニングや追加の最適化を必要とせずに、ユーザー定義の制約と説明を一致させる。
経済的および医療的データセットにわたる実験により、FCEGANは対実的説明の有効性を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-02-24T20:01:04Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Multi-SpaCE: Multi-Objective Subsequence-based Sparse Counterfactual Explanations for Multivariate Time Series Classification [3.8305310459921587]
マルチSpaCEは、時系列データの近接性、疎性、可視性、整合性をバランスさせる。
常に完全な妥当性を達成し、既存の方法と比較して優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-12-14T09:21:44Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations [56.941276017696076]
我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
論文 参考訳(メタデータ) (2023-09-09T04:05:56Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Conditional Generative Modeling via Learning the Latent Space [54.620761775441046]
マルチモーダル空間における条件生成のための新しい枠組みを提案する。
潜在変数を使って一般化可能な学習パターンをモデル化する。
推論では、潜伏変数は複数の出力モードに対応する最適解を見つけるために最適化される。
論文 参考訳(メタデータ) (2020-10-07T03:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。