論文の概要: Provably Robust Bayesian Counterfactual Explanations under Model Changes
- arxiv url: http://arxiv.org/abs/2601.16659v1
- Date: Fri, 23 Jan 2026 11:24:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.657936
- Title: Provably Robust Bayesian Counterfactual Explanations under Model Changes
- Title(参考訳): モデル変化下における確率的ロバストベイズ対実的説明
- Authors: Jamie Duell, Xiuyi Fan,
- Abstract要約: 本稿では,PSCE(Probabilistically Safe CEs)について紹介する。
ベイズ原理に基づき、PSCEはモデル変更の下でのCEの形式的確率的保証を提供する。
我々は現状のベイズCE法に対する我々のアプローチを比較し、PSCEはより妥当で差別的な反実的な説明を生成する。
- 参考スコア(独自算出の注目度): 1.4330077657731444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations (CEs) offer interpretable insights into machine learning predictions by answering ``what if?" questions. However, in real-world settings where models are frequently updated, existing counterfactual explanations can quickly become invalid or unreliable. In this paper, we introduce Probabilistically Safe CEs (PSCE), a method for generating counterfactual explanations that are $δ$-safe, to ensure high predictive confidence, and $ε$-robust to ensure low predictive variance. Based on Bayesian principles, PSCE provides formal probabilistic guarantees for CEs under model changes which are adhered to in what we refer to as the $\langle δ, ε\rangle$-set. Uncertainty-aware constraints are integrated into our optimization framework and we validate our method empirically across diverse datasets. We compare our approach against state-of-the-art Bayesian CE methods, where PSCE produces counterfactual explanations that are not only more plausible and discriminative, but also provably robust under model change.
- Abstract(参考訳): 対物的説明(CE)は、機械学習の予測に対する解釈可能な洞察を提供する。
しかし、モデルが頻繁に更新される現実の環境では、既存の偽りの説明はすぐに無効になり、信頼性が低下する可能性がある。
本稿では,予測信頼度を高めるために$δ$-safe と$ε$-robust の対実的説明を生成する手法である Probabilistic Safe CEs (PSCE) を紹介する。
ベイズ原理に基づき、PSCE はモデル変化の下での CE の形式的確率的保証を提供するが、これは $\langle δ, ε\rangle$-set と呼ばれるものである。
不確かさを意識した制約を最適化フレームワークに統合し、さまざまなデータセットに対して経験的にメソッドを検証する。
現状のベイズCE法に対する我々のアプローチと比較し、PSCEは、より可塑性で差別的であるだけでなく、モデル変更下では確実に堅牢である反実的な説明を生成する。
関連論文リスト
- CONFEX: Uncertainty-Aware Counterfactual Explanations with Conformal Guarantees [4.014351341279428]
本研究では,不確実性を考慮した対実的説明を生成する新しい手法であるCONFEXを提案する。
CONFEXの説明は、CFX生成が交換可能性に反する問題に対処するため、ローカルなカバレッジ保証を提供するように設計されている。
各種ベンチマークやメトリクスを用いた最先端手法に対するCONFEXの評価を行った。
論文 参考訳(メタデータ) (2025-10-22T16:43:36Z) - Counterfactual Explanations with Probabilistic Guarantees on their Robustness to Model Change [4.239829789304117]
対実的説明(CFE)は、望ましいアウトプットを達成するために、機械学習モデルへの入力の調整方法をユーザに案内する。
この問題に対処する現在のメソッドは、しばしば特定のモデルや変更タイプのみをサポートする。
本稿では,任意のモデルや変更タイプに対して確率的保証を提供するCFEの生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T03:35:53Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Efficient Conformal Prediction under Data Heterogeneity [79.35418041861327]
コンフォーマル予測(CP)は不確実性定量化のための頑健な枠組みである。
非交換性に対処するための既存のアプローチは、最も単純な例を超えて計算不可能なメソッドにつながる。
この研究は、比較的一般的な非交換可能なデータ分布に対して証明可能な信頼セットを生成する、CPに新しい効率的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-25T20:02:51Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。