論文の概要: Gradient-based Counterfactual Explanations using Tractable Probabilistic
Models
- arxiv url: http://arxiv.org/abs/2205.07774v1
- Date: Mon, 16 May 2022 16:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 14:25:46.977489
- Title: Gradient-based Counterfactual Explanations using Tractable Probabilistic
Models
- Title(参考訳): 気道確率モデルを用いた勾配に基づく反事実説明
- Authors: Xiaoting Shao, Kristian Kersting
- Abstract要約: ファクトファクトの例は、機械学習モデルに魅力的な説明のクラスである。
現在のアプローチは主に複雑な最適化によってこの課題を解決する。
本稿では,2つの勾配計算のみを用いて,これらの問題に対処する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 20.770168600755877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual examples are an appealing class of post-hoc explanations for
machine learning models. Given input $x$ of class $y_1$, its counterfactual is
a contrastive example $x^\prime$ of another class $y_0$. Current approaches
primarily solve this task by a complex optimization: define an objective
function based on the loss of the counterfactual outcome $y_0$ with hard or
soft constraints, then optimize this function as a black-box. This "deep
learning" approach, however, is rather slow, sometimes tricky, and may result
in unrealistic counterfactual examples. In this work, we propose a novel
approach to deal with these problems using only two gradient computations based
on tractable probabilistic models. First, we compute an unconstrained
counterfactual $u$ of $x$ to induce the counterfactual outcome $y_0$. Then, we
adapt $u$ to higher density regions, resulting in $x^{\prime}$. Empirical
evidence demonstrates the dominant advantages of our approach.
- Abstract(参考訳): counterfactual exampleは、機械学習モデルに対するポストホックな説明の魅力的なクラスである。
クラス$y_1$の入力$x$が与えられた場合、その逆ファクトは、他のクラス$y_0$の対照的な例である。
現在のアプローチは、主に複雑な最適化によってこのタスクを解決している: 対物的な結果の損失に基づいて目的関数を定義する ハードまたはソフトな制約で$y_0$ を指定し、ブラックボックスとしてこの関数を最適化する。
しかし、この「深層学習」アプローチは、かなり遅く、たまにトリッキーであり、非現実的な反事実的な例をもたらす可能性がある。
本研究では, 確率モデルに基づく2つの勾配計算のみを用いて, これらの問題に対処する新しい手法を提案する。
まず、制約のない反ファクトの$u$ of $x$を計算し、反ファクトの結果$y_0$を誘導する。
そして、高い密度領域に$u$を適応させ、その結果$x^{\prime}$となる。
実証的な証拠は我々のアプローチの優位性を示している。
関連論文リスト
- Learning to Solve the Constrained Most Probable Explanation Task in Probabilistic Graphical Models [10.603378323312809]
我々は、制約された最も予測可能な説明(CMPE)問題に対して、ほぼ最適解を出力することを学ぶディープニューラルネットワークを訓練する。
提案手法の特性を解析し,その有効性をいくつかのベンチマーク問題で実験的に実証する。
論文 参考訳(メタデータ) (2024-04-17T17:55:17Z) - Stochastic Inexact Augmented Lagrangian Method for Nonconvex Expectation
Constrained Optimization [88.0031283949404]
多くの実世界の問題は複雑な非機能的制約を持ち、多くのデータポイントを使用する。
提案手法は,従来最もよく知られた結果で既存手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-19T14:48:54Z) - Sharper Rates and Flexible Framework for Nonconvex SGD with Client and
Data Sampling [64.31011847952006]
我々は、平均$n$スムーズでおそらくは非カラー関数のほぼ定常点を求める問題を再考する。
我々は$smallsfcolorgreen$を一般化し、事実上あらゆるサンプリングメカニズムで確実に動作するようにします。
我々は、スムーズな非カラー状態における最適境界の最も一般的な、最も正確な解析を提供する。
論文 参考訳(メタデータ) (2022-06-05T21:32:33Z) - Optimal Gradient Sliding and its Application to Distributed Optimization
Under Similarity [121.83085611327654]
積 $r:=p + q$, ここで$r$は$mu$-strong convex類似性である。
エージェントの通信やローカルコールにマスターされた問題を解決する方法を提案する。
提案手法は$mathcalO(sqrtL_q/mu)$法よりもはるかにシャープである。
論文 参考訳(メタデータ) (2022-05-30T14:28:02Z) - Mixability made efficient: Fast online multiclass logistic regression [68.8204255655161]
我々は、混合性は最適な後悔を伴うアルゴリズムを得るための強力なツールであることを示した。
結果として得られる手法は、しばしば計算の複雑さに悩まされ、実用性が低下した。
論文 参考訳(メタデータ) (2021-10-08T08:22:05Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Saddle Point Optimization with Approximate Minimization Oracle [8.680676599607125]
サドル点最適化に対する主要なアプローチである$min_xmax_y f(x, y)$は、GAN(Generative Adversarial Network)によって一般化される勾配に基づくアプローチである。
対照的に、最小化問題を解くオラクルのみに依存する代替手法を解析する。
我々のアプローチでは、近似解 $x'$ と $y'$ to $min_x'f(x', y)$ を与えられた点 $(x, y)$ に配置し、これらの近似解 $(x', y)$ に更新する。
論文 参考訳(メタデータ) (2021-03-29T23:03:24Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z) - A One-bit, Comparison-Based Gradient Estimator [29.600975900977343]
正規化勾配の頑健で信頼性の高い推定器を構築するために、1ビット圧縮センシングのツールを利用する方法を示す。
勾配降下法において,この推定器を用いたSCOBOというアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:01:38Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z) - Sample Efficient Reinforcement Learning via Low-Rank Matrix Estimation [30.137884459159107]
連続状態と行動空間を用いた強化学習において,Q$関数を効率よく学習する方法を考える。
我々は、$epsilon$-Schmidt $Q$-functionと$widetildeO(frac1epsilonmax(d1, d_2)+2)$のサンプル複雑性を求める単純な反復学習アルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-11T00:55:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。