論文の概要: Counterfactual Explanations via Latent Space Projection and
Interpolation
- arxiv url: http://arxiv.org/abs/2112.00890v1
- Date: Thu, 2 Dec 2021 00:07:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 16:59:04.372903
- Title: Counterfactual Explanations via Latent Space Projection and
Interpolation
- Title(参考訳): 潜在空間投影と補間による反事実説明
- Authors: Brian Barr (1), Matthew R. Harrington (2), Samuel Sharpe (1), C. Bayan
Bruss (1) ((1) Center for Machine Learning, Capital One, (2) Columbia
University)
- Abstract要約: SharpShooterは、ターゲットクラスとして分類する入力の投影バージョンを作成することから始まるバイナリ分類のメソッドである。
次に,本フレームワークは,学習表現を用いて,サンプルのコア特性をその逆ファクトに変換することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Counterfactual explanations represent the minimal change to a data sample
that alters its predicted classification, typically from an unfavorable initial
class to a desired target class. Counterfactuals help answer questions such as
"what needs to change for this application to get accepted for a loan?". A
number of recently proposed approaches to counterfactual generation give
varying definitions of "plausible" counterfactuals and methods to generate
them. However, many of these methods are computationally intensive and provide
unconvincing explanations. Here we introduce SharpShooter, a method for binary
classification that starts by creating a projected version of the input that
classifies as the target class. Counterfactual candidates are then generated in
latent space on the interpolation line between the input and its projection. We
then demonstrate that our framework translates core characteristics of a sample
to its counterfactual through the use of learned representations. Furthermore,
we show that SharpShooter is competitive across common quality metrics on
tabular and image datasets while being orders of magnitude faster than two
comparable methods and excels at measures of realism, making it well-suited for
high velocity machine learning applications which require timely explanations.
- Abstract(参考訳): 対実的説明は、予測された分類を変更するデータサンプルへの最小限の変更を表し、通常は好ましくない初期クラスから望ましいターゲットクラスへ変更する。
counterfactualsは、“このアプリケーションがローンを受理するためには、何を変更する必要があるのか?
反事実生成に対する最近提案された多くのアプローチは、 "plausible" 反事実とそれらを生成する方法の様々な定義を与える。
しかし、これらの手法の多くは計算集約的であり、説得力のない説明を提供する。
これは、ターゲットクラスとして分類される入力の投影バージョンを作成することから開始されるバイナリ分類のメソッドである。
反事実候補は入力と射影の間の補間線上の潜在空間で生成される。
次に,本フレームワークがサンプルのコア特性を,学習表現を用いて反事実に翻訳することを示す。
さらに、SharpShooterは2つの同等の手法よりも桁違いに高速であり、リアル性の測定に優れており、タイムリーな説明を必要とする高速機械学習アプリケーションに適していることを示す。
関連論文リスト
- Generative Multi-modal Models are Good Class-Incremental Learners [51.5648732517187]
クラス増分学習のための新しい生成型マルチモーダルモデル(GMM)フレームワークを提案する。
提案手法は適応生成モデルを用いて画像のラベルを直接生成する。
Few-shot CIL設定では、現在の最先端のすべてのメソッドに対して少なくとも14%精度が向上し、忘れてはならない。
論文 参考訳(メタデータ) (2024-03-27T09:21:07Z) - Rethinking Person Re-identification from a Projection-on-Prototypes
Perspective [84.24742313520811]
検索タスクとしてのPerson Re-IDentification(Re-ID)は,過去10年間で大きな発展を遂げてきた。
本稿では,新しいベースライン ProNet を提案する。
4つのベンチマークの実験では、提案したProNetは単純だが有効であり、以前のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2023-08-21T13:38:10Z) - Semi-supervised counterfactual explanations [3.6810543937967912]
トレーニングデータと同じデータ分布にある反実的説明を生成するという課題に対処する。
この要件は, 自動エンコーダ再構築損失を, 対物探索プロセスに組み込むことによって解決されている。
本稿では,クラスタグ付き入力データを用いた半教師付き方式で自動エンコーダを訓練した場合の対実的説明の解釈性をさらに向上することを示す。
論文 参考訳(メタデータ) (2023-03-22T15:17:16Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - An Upper Bound for the Distribution Overlap Index and Its Applications [18.481370450591317]
本稿では,2つの確率分布間の重なり関数に対する計算容易な上限を提案する。
提案した境界は、一級分類と領域シフト解析においてその値を示す。
私たちの研究は、重複ベースのメトリクスの応用を拡大する大きな可能性を示しています。
論文 参考訳(メタデータ) (2022-12-16T20:02:03Z) - Explaining Image Classifiers Using Contrastive Counterfactuals in
Generative Latent Spaces [12.514483749037998]
本稿では,画像分類器の因果的かつ解釈可能な反事実的説明を生成する新しい手法を提案する。
我々は、ブラックボックス分類器のグローバルな説明として、コントラスト的かつ因果的満足度と必要性スコアを得るために、このフレームワークを使用します。
論文 参考訳(メタデータ) (2022-06-10T17:54:46Z) - Scalable Optimal Classifiers for Adversarial Settings under Uncertainty [10.90668635921398]
本稿では,攻撃者に対して目的が不明な攻撃者がクラス-1データを生成する対角的設定において,最適な分類器を見つけることの問題点を考察する。
この低次元キャラクタリゼーションにより,ほぼほぼ最適な分類器をスケーラブルに計算する訓練手法が開発可能であることを示す。
論文 参考訳(メタデータ) (2021-06-28T13:33:53Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。