論文の概要: DiCE-Extended: A Robust Approach to Counterfactual Explanations in Machine Learning
- arxiv url: http://arxiv.org/abs/2504.19027v1
- Date: Sat, 26 Apr 2025 21:22:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.09698
- Title: DiCE-Extended: A Robust Approach to Counterfactual Explanations in Machine Learning
- Title(参考訳): DiCE-Extended: 機械学習における非現実的説明へのロバストなアプローチ
- Authors: Volkan Bakir, Polat Goktas, Sureyya Akyuz,
- Abstract要約: 説明可能な人工知能(XAI)の重要なアプローチ
既存の生成手法は、しばしば近接性、多様性、堅牢性のバランスをとるのに苦労し、現実の応用性を制限する。
広く採用されているフレームワークであるDiverse Counterfactual Explanations (DiCE)は多様性を強調しているが、堅牢性に欠けており、CFの説明は摂動やドメインの制約に敏感である。
我々は、多目的最適化技術を統合し、解釈可能性を維持しながら堅牢性を向上させる拡張CF説明フレームワークであるDiCE-Extendedを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable artificial intelligence (XAI) has become increasingly important in decision-critical domains such as healthcare, finance, and law. Counterfactual (CF) explanations, a key approach in XAI, provide users with actionable insights by suggesting minimal modifications to input features that lead to different model outcomes. Despite significant advancements, existing CF generation methods often struggle to balance proximity, diversity, and robustness, limiting their real-world applicability. A widely adopted framework, Diverse Counterfactual Explanations (DiCE), emphasizes diversity but lacks robustness, making CF explanations sensitive to perturbations and domain constraints. To address these challenges, we introduce DiCE-Extended, an enhanced CF explanation framework that integrates multi-objective optimization techniques to improve robustness while maintaining interpretability. Our approach introduces a novel robustness metric based on the Dice-Sorensen coefficient, ensuring stability under small input variations. Additionally, we refine CF generation using weighted loss components (lambda_p, lambda_d, lambda_r) to balance proximity, diversity, and robustness. We empirically validate DiCE-Extended on benchmark datasets (COMPAS, Lending Club, German Credit, Adult Income) across multiple ML backends (Scikit-learn, PyTorch, TensorFlow). Results demonstrate improved CF validity, stability, and alignment with decision boundaries compared to standard DiCE-generated explanations. Our findings highlight the potential of DiCE-Extended in generating more reliable and interpretable CFs for high-stakes applications. Future work will explore adaptive optimization techniques and domain-specific constraints to further enhance CF generation in real-world scenarios.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、医療、金融、法律といった決定クリティカルな領域においてますます重要になっている。
XAIにおける重要なアプローチであるCFの説明は、入力機能への最小限の変更を提案することで、ユーザに対して実行可能な洞察を提供する。
大きな進歩にもかかわらず、既存のCF生成手法は、近接性、多様性、堅牢性のバランスをとるのに苦労し、現実の応用性を制限している。
広く採用されているフレームワークであるDiverse Counterfactual Explanations (DiCE)は多様性を強調しているが、堅牢性に欠けており、CFの説明は摂動やドメインの制約に敏感である。
これらの課題に対処するために,多目的最適化技術を統合する拡張CF説明フレームワークであるDiCE-Extendedを導入する。
提案手法では,Dice-Sorensen係数に基づく新しいロバストネス指標を導入し,入力変動の小さい場合の安定性を確保する。
さらに、重み付けロスコンポーネント(lambda_p、lambda_d、lambda_r)を使用してCF生成を洗練し、近接性、多様性、堅牢性をバランスさせる。
私たちは、複数のMLバックエンド(Scikit-learn、PyTorch、TensorFlow)にわたって、ベンチマークデータセット(COMPAS、Lending Club、ジャーマンクレジット、アダルトインカム)でDiCE-Extendedを実証的に検証します。
その結果, CFの妥当性, 安定性, 決定境界との整合性は標準のDCEによる説明よりも向上した。
本研究は,高信頼かつ解釈可能なCFを高効率で生成するDiCE-Extendedの可能性を明らかにするものである。
将来的には、現実シナリオにおけるCF生成をさらに強化するために、適応最適化技術とドメイン固有の制約について検討する予定である。
関連論文リスト
- BECAME: BayEsian Continual Learning with Adaptive Model MErging [21.642774366793997]
BECAMEという2段階のフレームワークを導入し、勾配予測と適応的マージの専門知識を相乗化する。
我々のアプローチは、最先端のCLメソッドと既存のマージ戦略より優れています。
論文 参考訳(メタデータ) (2025-04-03T15:07:28Z) - Your Language Model May Think Too Rigidly: Achieving Reasoning Consistency with Symmetry-Enhanced Training [66.48331530995786]
我々は、文脈から有用な情報を抽出する能力を向上させるデータ中心のアプローチであるsyMmetry-ENhanceD (MEND) Data Augmentationを提案する。
推論連鎖の増大を強調する既存の手法とは異なり,本手法は知識抽出段階におけるモデルロバスト性を向上させる。
論理的および算術的推論タスクの実験は、MENDが様々なクエリのバリエーションで推論性能を向上させることを示している。
論文 参考訳(メタデータ) (2025-02-25T03:03:35Z) - RobustX: Robust Counterfactual Explanations Made Easy [4.875355171029671]
本稿では,オープンソースのPythonライブラリであるRobustXについて紹介する。
既存のメソッドのインターフェースを提供し、最先端技術への合理化を可能にする。
論文 参考訳(メタデータ) (2025-02-19T14:12:01Z) - Protect Before Generate: Error Correcting Codes within Discrete Deep Generative Models [3.053842954605396]
本稿では,離散潜在変数モデルにおける変分推論を強化する新しい手法を提案する。
我々は誤り訂正符号(ECC)を活用し、潜伏表現に冗長性を導入する。
この冗長性は変分後部によって利用され、より正確な推定値が得られる。
論文 参考訳(メタデータ) (2024-10-10T11:59:58Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - A PSO Based Method to Generate Actionable Counterfactuals for High
Dimensional Data [3.0320603363468845]
粒子群最適化(PSO)に基づく効率的で実用的な逆ファクトアル(CF)生成法について述べる。
これらの特徴を組み込んだアルゴリズムが提案され、生成されたCFの近接特性と疎性特性をより制御できる。
論文 参考訳(メタデータ) (2023-09-30T18:08:00Z) - Provably Robust and Plausible Counterfactual Explanations for Neural Networks via Robust Optimisation [19.065904250532995]
PROPLACE(Provably RObust and PLAUSible Counterfactual Explanations)を提案する。
証明可能な堅牢なCEを計算し、その収束性、健全性、完全性を証明するための反復アルゴリズムを定式化する。
ProPLACEは,3つの評価点において,計測値に対する最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-22T00:12:09Z) - Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations [56.941276017696076]
我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
論文 参考訳(メタデータ) (2023-09-09T04:05:56Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。