論文の概要: Amortized Generation of Sequential Counterfactual Explanations for
Black-box Models
- arxiv url: http://arxiv.org/abs/2106.03962v1
- Date: Mon, 7 Jun 2021 20:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 16:17:45.112743
- Title: Amortized Generation of Sequential Counterfactual Explanations for
Black-box Models
- Title(参考訳): ブラックボックスモデルにおける逐次対数説明の補正生成
- Authors: Sahil Verma, Keegan Hines, John P. Dickerson
- Abstract要約: 事実的説明(CFE)は、フォームのフィードバックを提供する。
現在のCFEアプローチは、シングルショット -- つまり、単一の期間で$x$を$x'$に変更できると仮定する。
我々は、$x$を中間状態から最終状態に移動させるシーケンシャルなCFEを生成する新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 26.91950709495675
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainable machine learning (ML) has gained traction in recent years due to
the increasing adoption of ML-based systems in many sectors. Counterfactual
explanations (CFEs) provide ``what if'' feedback of the form ``if an input
datapoint were $x'$ instead of $x$, then an ML-based system's output would be
$y'$ instead of $y$.'' CFEs are attractive due to their actionable feedback,
amenability to existing legal frameworks, and fidelity to the underlying ML
model. Yet, current CFE approaches are single shot -- that is, they assume $x$
can change to $x'$ in a single time period. We propose a novel
stochastic-control-based approach that generates sequential CFEs, that is, CFEs
that allow $x$ to move stochastically and sequentially across intermediate
states to a final state $x'$. Our approach is model agnostic and black box.
Furthermore, calculation of CFEs is amortized such that once trained, it
applies to multiple datapoints without the need for re-optimization. In
addition to these primary characteristics, our approach admits optional
desiderata such as adherence to the data manifold, respect for causal
relations, and sparsity -- identified by past research as desirable properties
of CFEs. We evaluate our approach using three real-world datasets and show
successful generation of sequential CFEs that respect other counterfactual
desiderata.
- Abstract(参考訳): 説明可能な機械学習(ML)は、近年、多くの分野でMLベースのシステムが採用され、注目を集めている。
counterfactual descriptions (cfes)は、入力データポイントが$x$ではなく$x'$であるなら、mlベースのシステムの出力は$y$ではなく$y'$になります。
CFEは、動作可能なフィードバック、既存の法律フレームワークへのアメニビリティ、基盤となるMLモデルへの忠実さによって魅力的です。
しかし、現在のCFEアプローチはシングルショットであり、つまり、1つの期間で$x$が$x'$に変化すると仮定している。
我々は, 連続CFEを生成する新しい確率制御型アプローチ, すなわち, 中間状態から最終状態の$x'$まで, 確率的に, 逐次的に移動可能なCFEを提案する。
私たちのアプローチはモデル非依存とブラックボックスです。
さらに、cfesの計算は再最適化を必要とせずに複数のデータポイントに適用するように償却される。
これらの主な特徴に加えて,本手法では,データ多様体への付着,因果関係の尊重,空間性などのデシラタをCFEの望ましい性質として過去の研究で確認した。
実世界の3つのデータセットを用いてアプローチを評価し,他のデシラタを尊重するシーケンシャルなCFEの生成に成功したことを示す。
関連論文リスト
- Counterfactual Explanations with Probabilistic Guarantees on their Robustness to Model Change [4.239829789304117]
対実的説明(CFE)は、望ましいアウトプットを達成するために、機械学習モデルへの入力の調整方法をユーザに案内する。
この問題に対処する現在のメソッドは、しばしば特定のモデルや変更タイプのみをサポートする。
本稿では,任意のモデルや変更タイプに対して確率的保証を提供するCFEの生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T03:35:53Z) - Counterfactual Explanations for Multivariate Time-Series without Training Datasets [4.039558709616107]
CFWoTは、トレーニングデータセットが利用できない場合にCFEを生成する新しい強化学習ベースのCFE手法である。
複数のデータセット上の4つのベースラインに対するCFWoTの性能を示す。
論文 参考訳(メタデータ) (2024-05-28T20:15:09Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Flexible and Robust Counterfactual Explanations with Minimal Satisfiable
Perturbations [56.941276017696076]
我々は、最小満足度摂動(CEMSP)を用いた対実的説明法という概念的に単純だが効果的な解を提案する。
CEMSPは、意味論的に意味のある正常範囲の助けを借りて、異常な特徴の値を変更することを制限している。
既存の手法と比較して、我々は合成データセットと実世界のデータセットの両方で包括的な実験を行い、柔軟性を維持しつつ、より堅牢な説明を提供することを示した。
論文 参考訳(メタデータ) (2023-09-09T04:05:56Z) - CPPF++: Uncertainty-Aware Sim2Real Object Pose Estimation by Vote Aggregation [67.12857074801731]
そこで本研究では,シミュレートからリアルなポーズ推定のための新しい手法であるCPPF++を提案する。
投票衝突による課題に対処するため,投票の不確実性をモデル化する新たなアプローチを提案する。
ノイズの多いペアフィルタリング、オンラインアライメント最適化、機能アンサンブルなど、いくつかの革新的なモジュールを組み込んでいます。
論文 参考訳(メタデータ) (2022-11-24T03:27:00Z) - FeDXL: Provable Federated Learning for Deep X-Risk Optimization [105.17383135458897]
我々は、既存のアルゴリズムが適用できないXリスクのファミリーを最適化するために、新しい連邦学習(FL)問題に取り組む。
Xリスクに対するFLアルゴリズムを設計する際の課題は、複数のマシンに対する目的の非可逆性と、異なるマシン間の相互依存にある。
論文 参考訳(メタデータ) (2022-10-26T00:23:36Z) - LIFE: Learning Individual Features for Multivariate Time Series
Prediction with Missing Values [71.52335136040664]
本稿では,MTS予測のための新しいパラダイムを提供する学習個人特徴(LIFE)フレームワークを提案する。
LIFEは、相関次元を補助情報として使用し、非相関次元からの干渉を欠落値で抑制することにより、予測のための信頼性の高い特徴を生成する。
3つの実世界のデータセットの実験は、既存の最先端モデルに対するLIFEの優位性を検証する。
論文 参考訳(メタデータ) (2021-09-30T04:53:24Z) - CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations [12.313007847721215]
CounterNetは、予測モデルトレーニングと対実的(CF)説明の生成を統合する、エンドツーエンドの学習フレームワークである。
ポストホック法とは異なり、CounterNetは予測モデルとともにCF説明生成を1回だけ最適化することができる。
複数の実世界のデータセットに対する実験により、CounterNetは高品質な予測を生成することが示された。
論文 参考訳(メタデータ) (2021-09-15T20:09:13Z) - Counterfactual Explanations for Machine Learning: Challenges Revisited [6.939768185086755]
対実的説明(CFE)は、機械学習(ML)モデルの解釈可能性の傘の下に生まれたテクニックである。
入力データポイントが$x$ではなく$x’$であれば、MLモデルの出力は$y’$ではなく$y’$になる。
論文 参考訳(メタデータ) (2021-06-14T20:56:37Z) - Model-Augmented Q-learning [112.86795579978802]
モデルベースRLの構成要素を付加したMFRLフレームワークを提案する。
具体的には、$Q$-valuesだけでなく、共有ネットワークにおける遷移と報酬の両方を見積もる。
提案手法は,MQL (Model-augmented $Q$-learning) とよばれる提案手法により,真に報いられた学習によって得られる解と同一のポリシ不変解が得られることを示す。
論文 参考訳(メタデータ) (2021-02-07T17:56:50Z) - Competition analysis on the over-the-counter credit default swap market [0.0]
両立関係の競合は, 相互の要求により検討する。
初期マージン要件をうまく見積もるモデルを提案する。
第2に、新しい半教師付き予測タスクを用いて、インターディーラー市場での選択肢をモデル化する。
論文 参考訳(メタデータ) (2020-12-03T13:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。