論文の概要: DISCOVER: A Solver for Distributional Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2603.16436v1
- Date: Tue, 17 Mar 2026 12:18:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.266998
- Title: DISCOVER: A Solver for Distributional Counterfactual Explanations
- Title(参考訳): Discover: 分散対実的説明のためのソリューション
- Authors: Yikai Gu, Lele Cao, Bo Zhao, Lei Lei, Lei You,
- Abstract要約: DISCOVERは、分散対実的説明のためのモデルに依存しない解法である。
これは、輸送目標のサンプルワイズ分解を利用して、ローごとのインパクトスコアを計算し、最高$kの介入予算を強制する。
複数のデータセットの実験は、入力分布と出力分布の強い結合性を示す。
- 参考スコア(独自算出の注目度): 7.673379790081033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations (CE) explain model decisions by identifying input modifications that lead to different predictions. Most existing methods operate at the instance level. Distributional Counterfactual Explanations (DCE) extend this setting by optimizing an optimal transport objective that balances proximity to a factual input distribution and alignment to a target output distribution, with statistical certification via chance constrained bounds. However, DCE relies on gradient based optimization, while many real-world tabular pipelines are dominated by non-differentiable models. We propose DISCOVER, a model-agnostic solver for distributional counterfactual explanations. DISCOVER preserves the original DCE objective and certification while replacing gradient descent with a sparse propose-and-select search paradigm. It exploits a sample-wise decomposition of the transport objective to compute per-row impact scores and enforce a top-$k$ intervention budget, focusing edits on the most influential samples. To guide candidate generation without predictor gradients, DISCOVER introduces an OT-guided cone sampling primitive driven by input-side transport geometry. Experiments on multiple tabular datasets demonstrate strong joint alignment of input and output distributions, extending distributional counterfactual reasoning to modern black box learning pipelines. A code repository is available at https://github.com/understanding-ml/DCE.
- Abstract(参考訳): 対実的説明(CE)は、異なる予測につながる入力修正を特定することによって、モデル決定を説明する。
ほとんどの既存のメソッドはインスタンスレベルで動作します。
DCE(Distributal Counterfactual Explanations)はこの設定を拡張し、現実的な入力分布に近接し、ターゲットの出力分布にアライメントする最適な輸送目標を、確率制約付き境界による統計的認証によって最適化する。
しかし、DCEは勾配に基づく最適化に依存しており、実際のグラフパイプラインの多くは微分不可能なモデルによって支配されている。
本研究では,分散対実的説明のためのモデルに依存しない解法であるdiscoVERを提案する。
DISCOVERは、勾配降下をスパースな提案と選択の探索パラダイムに置き換えつつ、元のDCE目標と認証を維持している。
トランスポート目的のサンプル分解を利用して、ローごとのインパクトスコアを計算し、最も影響力のあるサンプルの編集に焦点をあてて、最高$kの介入予算を強制する。
DISCOVERは、予測勾配のない候補生成を導くために、入力側輸送幾何学によって駆動されるOT誘導コーンサンプリングプリミティブを導入している。
複数の表形式のデータセットの実験は、入力と出力の分布の強い結合性を示し、分布の反事実推論を現代のブラックボックス学習パイプラインに拡張する。
コードリポジトリはhttps://github.com/understanding-ml/DCEで公開されている。
関連論文リスト
- Learnable Chernoff Baselines for Inference-Time Alignment [64.81256817158851]
本稿では,指数関数的に傾いたカーネルから効率よく,およそサンプリングする方法として,Learnerable Chernoff Baselinesを紹介した。
理想的なモデルに対する全変量保証を確立し、LCBサンプリングが理想的拒絶サンプリングと密接に一致するような連続的および離散的な拡散設定を実証する。
論文 参考訳(メタデータ) (2026-02-08T00:09:40Z) - Distributionally Robust Coreset Selection under Covariate Shift [14.979902937312099]
コアセットの選択は、トレーニングデータを減らすためのアプローチである。
すべてのデプロイメントシナリオでうまく機能するトレーニングデータの効果的なサブセットを選択するのは難しいです。
そこで我々は,DRCS(Distributally Robust Coreset Selection)を提案する。
論文 参考訳(メタデータ) (2025-01-24T05:36:53Z) - Adaptive Concept Bottleneck for Foundation Models Under Distribution Shifts [33.677249894085186]
複雑で非解釈可能な基礎モデルを解釈可能な意思決定パイプラインに変換するための概念ボトルネックモデルの可能性を探る。
具体的には、このような解釈可能なCBMパイプラインを“野生”で”テスト時にデプロイすることに重点を置いています。
提案手法は,テストデータとの整合性を向上し,デプロイ後の精度を最大28%向上させる。
論文 参考訳(メタデータ) (2024-12-18T17:47:46Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Distributional Counterfactual Explanations With Optimal Transport [7.597676579494146]
対実的説明 (CE) は、ブラックボックスの意思決定モデルに関する洞察を提供するための事実上の方法である。
本稿では,観測データの分布特性に焦点を移すDCE(distributal counterfactual explanation)を提案する。
論文 参考訳(メタデータ) (2024-01-23T21:48:52Z) - Semi-DETR: Semi-Supervised Object Detection with Detection Transformers [105.45018934087076]
半教師付き物体検出(SSOD)におけるDETRに基づくフレームワークの解析
本報告では,第1次変圧器を用いたエンド・ツー・エンド半教師対象検出器であるSemi-DETRについて述べる。
我々の手法は、最先端の手法をクリアマージンで上回る。
論文 参考訳(メタデータ) (2023-07-16T16:32:14Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。