論文の概要: ElliCE: Efficient and Provably Robust Algorithmic Recourse via the Rashomon Sets
- arxiv url: http://arxiv.org/abs/2602.07674v1
- Date: Sat, 07 Feb 2026 19:41:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.755862
- Title: ElliCE: Efficient and Provably Robust Algorithmic Recourse via the Rashomon Sets
- Title(参考訳): ElliCE: 羅生門セットによる効率的かつ確率的にロバストなアルゴリズムリコース
- Authors: Bohdan Turbal, Iryna Voitsitska, Lesia Semenova,
- Abstract要約: ElliCEは、堅牢なアルゴリズムリコースのための新しいフレームワークである。
これはラショモン集合の楕円体近似に対する堅牢な反事実を生成する。
- 参考スコア(独自算出の注目度): 2.2393948001477457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models now influence decisions that directly affect people's lives, making it important to understand not only their predictions, but also how individuals could act to obtain better results. Algorithmic recourse provides actionable input modifications to achieve more favorable outcomes, typically relying on counterfactual explanations to suggest such changes. However, when the Rashomon set - the set of near-optimal models - is large, standard counterfactual explanations can become unreliable, as a recourse action valid for one model may fail under another. We introduce ElliCE, a novel framework for robust algorithmic recourse that optimizes counterfactuals over an ellipsoidal approximation of the Rashomon set. The resulting explanations are provably valid over this ellipsoid, with theoretical guarantees on uniqueness, stability, and alignment with key feature directions. Empirically, ElliCE generates counterfactuals that are not only more robust but also more flexible, adapting to user-specified feature constraints while being substantially faster than existing baselines. This provides a principled and practical solution for reliable recourse under model uncertainty, ensuring stable recommendations for users even as models evolve.
- Abstract(参考訳): 機械学習モデルは、人々の生活に直接影響を与える決定に影響を与え、予測だけでなく、個人がより良い結果を得るためにどのように振る舞うかを理解することが重要である。
アルゴリズムのリコースは、より好ましい結果を達成するために実行可能な入力修正を提供する。
しかし、最適に近いモデルの集合である羅生門集合が大きくなると、あるモデルに有効な言い換えアクションが別のモデルの下で失敗するので、標準的な反事実的説明は信頼できないものとなる。
我々は,ラッショモン集合の楕円近似よりも反事実を最適化する,ロバストなアルゴリズム記述のための新しいフレームワークであるElliCEを紹介する。
得られた説明は、この楕円体に対して確実に有効であり、一意性、安定性、および重要な特徴方向との整合性に関する理論的保証がある。
経験的に、ElliCEは、より堅牢なだけでなく、より柔軟で、ユーザ指定の機能制約に適応しながら、既存のベースラインよりも大幅に高速な、偽物を生成する。
これにより、モデル不確実性の下で信頼性の高いリコースのための原則付き実用的なソリューションが提供され、モデルが進化しても、ユーザに安定したレコメンデーションが保証されます。
関連論文リスト
- Not All Preferences Are Created Equal: Stability-Aware and Gradient-Efficient Alignment for Reasoning Models [52.48582333951919]
ポリシー更新の信号対雑音比を最大化することにより、アライメントの信頼性を高めるために設計された動的フレームワークを提案する。
SAGE(Stability-Aware Gradient Efficiency)は、モデル能力に基づいて候補プールをリフレッシュする粗いきめ細かいカリキュラムメカニズムを統合する。
複数の数学的推論ベンチマークの実験により、SAGEは収束を著しく加速し、静的ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2026-02-01T12:56:10Z) - ResAD: Normalized Residual Trajectory Modeling for End-to-End Autonomous Driving [64.42138266293202]
ResADは正規化された残留軌道モデリングフレームワークである。
学習タスクを再編成し、慣性参照からの残留偏差を予測する。
NAVSIMベンチマークでは、ResADはバニラ拡散ポリシーを用いて最先端のPDMS 88.6を達成している。
論文 参考訳(メタデータ) (2025-10-09T17:59:36Z) - COME: Test-time adaption by Conservatively Minimizing Entropy [45.689829178140634]
保守的に最小化されるエントロピー (COME) は従来のエントロピー (EM) の代替品である
COMEはモデル予測よりもディリクレ事前分布を特徴付けることによって、不確実性を明示的にモデル化する。
我々はCOMEが一般的なベンチマークで最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-12T09:20:06Z) - Counterfactual Explanations with Probabilistic Guarantees on their Robustness to Model Change [4.239829789304117]
対実的説明(CFE)は、望ましいアウトプットを達成するために、機械学習モデルへの入力の調整方法をユーザに案内する。
この問題に対処する現在のメソッドは、しばしば特定のモデルや変更タイプのみをサポートする。
本稿では,任意のモデルや変更タイプに対して確率的保証を提供するCFEの生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T03:35:53Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率のよいアンサンブル手法であるLoRA-Ensembleを紹介する。
この方法は、BatchEnsembleのような最先端の暗黙のテクニックを上回るだけでなく、Explicit Ensembleの正確さにマッチするか超える。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。