論文の概要: A Few Good Counterfactuals: Generating Interpretable, Plausible and
Diverse Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2101.09056v1
- Date: Fri, 22 Jan 2021 11:30:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 17:29:40.326667
- Title: A Few Good Counterfactuals: Generating Interpretable, Plausible and
Diverse Counterfactual Explanations
- Title(参考訳): 良い対物:解釈可能・可塑性・多元的対物説明の生成
- Authors: Barry Smyth and Mark T Keane
- Abstract要約: 良い、ネイティブな反事実は、ほとんどのデータセットでまれに発生することが示されています。
最も一般的な方法は、盲目の摂動を用いて合成反実数を生成する。
本稿では,オリジナルデータセットのネイティブな反事実を適応させて,ばらばらで多様な合成反事実を生成する手法について述べる。
- 参考スコア(独自算出の注目度): 14.283774141604997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanations provide a potentially significant solution to the
Explainable AI (XAI) problem, but good, native counterfactuals have been shown
to rarely occur in most datasets. Hence, the most popular methods generate
synthetic counterfactuals using blind perturbation. However, such methods have
several shortcomings: the resulting counterfactuals (i) may not be valid
data-points (they often use features that do not naturally occur), (ii) may
lack the sparsity of good counterfactuals (if they modify too many features),
and (iii) may lack diversity (if the generated counterfactuals are minimal
variants of one another). We describe a method designed to overcome these
problems, one that adapts native counterfactuals in the original dataset, to
generate sparse, diverse synthetic counterfactuals from naturally occurring
features. A series of experiments are reported that systematically explore
parametric variations of this novel method on common datasets to establish the
conditions for optimal performance.
- Abstract(参考訳): 対物的説明は、説明可能なAI(XAI)問題に対する潜在的に重要な解決策を提供するが、良い、ネイティブな対物的説明がほとんどのデータセットで稀に発生することが示されている。
したがって、最も一般的な方法はブラインド摂動を用いて合成偽物を生成する。
しかし、このような手法にはいくつかの欠点がある: 結果の反事実 (i) が有効なデータポイントではない場合(自然に発生しない特徴を使う場合が多い)、 (ii) 優れた反事実の空間が欠如している場合(もし多くの特徴を変更すれば)、 (iii) は多様性がない場合(生成した反事実が互いに最小の変種である場合)。
本稿では,これらの問題を克服するための手法について述べる。本手法は,自然に発生する特徴から,スパースで多様な合成反事実を生成するために,原データセットにネイティブな反事実を適応させるものである。
最適性能の条件を確立するために、この新しい手法を共通データセット上で系統的にパラメトリックなバリエーションを探索する一連の実験が報告されている。
関連論文リスト
- CEnt: An Entropy-based Model-agnostic Explainability Framework to
Contrast Classifiers' Decisions [2.543865489517869]
我々は任意の分類器の予測を局所的に対比する新しい手法を提案する。
コントラストエントロピーに基づく説明法CEntは、決定木によって局所的にモデルを近似し、異なる特徴分割のエントロピー情報を算出する。
CEntは、不変性(人種など)と半不変性(年齢が増加する方向にしか変化しない)を満足しながら、トレーニングデータに必ずしも存在しない多様な反事実を生成する最初の非漸進的コントラスト法である。
論文 参考訳(メタデータ) (2023-01-19T08:23:34Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - LARD: Large-scale Artificial Disfluency Generation [0.0]
複雑で現実的な人工的不一致を少ない労力で生成する手法である LARD を提案する。
提案手法は, 繰り返し, 置換, 再起動の3種類の相反を処理できる。
4つの異なるタスクで使用できる、分散を持つ新しい大規模データセットをリリースする。
論文 参考訳(メタデータ) (2022-01-13T16:02:36Z) - Solving the Class Imbalance Problem Using a Counterfactual Method for
Data Augmentation [4.454557728745761]
クラス不均衡データセットからの学習は、機械学習アルゴリズムに課題をもたらす。
我々は、マイノリティクラスにおける合成対実例を生成する新しいデータ拡張手法(eXplainable AIから適応)を推進している。
4つの異なる分類器と25のデータセットを用いたいくつかの実験を報告し、本手法(CFA)がマイノリティクラスで有用な合成データポイントを生成することを示す。
論文 参考訳(メタデータ) (2021-11-05T14:14:06Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Prototype-based Counterfactual Explanation for Causal Classification [7.015556609676951]
対実的説明は、モデルの本来の決定を変えるために摂動サンプルを生成する解釈可能な機械学習の一分野である。
現在の反事実的説明のアプローチのほとんどは、連続変数を持つ微分可能損失関数のみを最適化できる勾配に基づく方法である。
本研究では,反事実の特徴を基盤とした因果関係を保存する因果構造モデルを提案する。
論文 参考訳(メタデータ) (2021-05-03T09:25:59Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。