論文の概要: CEnt: An Entropy-based Model-agnostic Explainability Framework to
Contrast Classifiers' Decisions
- arxiv url: http://arxiv.org/abs/2301.07941v1
- Date: Thu, 19 Jan 2023 08:23:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 15:25:11.495207
- Title: CEnt: An Entropy-based Model-agnostic Explainability Framework to
Contrast Classifiers' Decisions
- Title(参考訳): CEnt: エントロピーに基づくモデルに依存しない説明可能性フレームワーク
- Authors: Julia El Zini, Mohammad Mansour and Mariette Awad
- Abstract要約: 我々は任意の分類器の予測を局所的に対比する新しい手法を提案する。
コントラストエントロピーに基づく説明法CEntは、決定木によって局所的にモデルを近似し、異なる特徴分割のエントロピー情報を算出する。
CEntは、不変性(人種など)と半不変性(年齢が増加する方向にしか変化しない)を満足しながら、トレーニングデータに必ずしも存在しない多様な反事実を生成する最初の非漸進的コントラスト法である。
- 参考スコア(独自算出の注目度): 2.543865489517869
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current interpretability methods focus on explaining a particular model's
decision through present input features. Such methods do not inform the user of
the sufficient conditions that alter these decisions when they are not
desirable. Contrastive explanations circumvent this problem by providing
explanations of the form "If the feature $X>x$, the output $Y$ would be
different''. While different approaches are developed to find contrasts; these
methods do not all deal with mutability and attainability constraints.
In this work, we present a novel approach to locally contrast the prediction
of any classifier. Our Contrastive Entropy-based explanation method, CEnt,
approximates a model locally by a decision tree to compute entropy information
of different feature splits. A graph, G, is then built where contrast nodes are
found through a one-to-many shortest path search. Contrastive examples are
generated from the shortest path to reflect feature splits that alter model
decisions while maintaining lower entropy. We perform local sampling on
manifold-like distances computed by variational auto-encoders to reflect data
density. CEnt is the first non-gradient-based contrastive method generating
diverse counterfactuals that do not necessarily exist in the training data
while satisfying immutability (ex. race) and semi-immutability (ex. age can
only change in an increasing direction). Empirical evaluation on four
real-world numerical datasets demonstrates the ability of CEnt in generating
counterfactuals that achieve better proximity rates than existing methods
without compromising latency, feasibility, and attainability. We further extend
CEnt to imagery data to derive visually appealing and useful contrasts between
class labels on MNIST and Fashion MNIST datasets. Finally, we show how CEnt can
serve as a tool to detect vulnerabilities of textual classifiers.
- Abstract(参考訳): 現在の解釈可能性法は、現在の入力特徴を通して、特定のモデルの決定を説明することに焦点を当てている。
このような方法は、望ましくない場合にこれらの決定を変更する十分な条件をユーザに通知しない。
対照的な説明は、「機能 $x>x$ であれば、出力 $y$ は異なる」という形の説明を提供することでこの問題を回避する。
異なるアプローチがコントラストを見つけるために開発されているが、これらの手法が全てミュータビリティと到達可能性の制約を扱うわけではない。
本稿では,任意の分類器の予測を局所的に対比する新しい手法を提案する。
比較エントロピーに基づく説明法centは,各特徴分割のエントロピー情報を計算する決定木によって局所的にモデルに近似する。
次にグラフgが構築され、コントラストノードは1対1の短経路探索によって見つかる。
対照的な例は、低いエントロピーを維持しながらモデル決定を変更する特徴分割を反映する最短経路から生成される。
データ密度を反映する変分自動エンコーダにより計算された多様体状距離の局所サンプリングを行う。
centは、インミュータビリティ(例えば人種)とセミインミュータビリティ(例えば年齢が増加する方向にしか変化しない)を満足しながら、トレーニングデータに必ずしも存在しない多様な反事実を生成する最初の非勾配ベースのコントラスト手法である。
4つの実世界の数値データセットに対する実証的な評価は、CEntが既存の手法よりも高い近接率を達成し、レイテンシ、実現可能性、到達性を損なうことなく、カウンターファクトアルを生成する能力を示している。
さらに、CEntを画像データに拡張し、MNISTデータセットとFashion MNISTデータセットのクラスラベル間の視覚的に魅力的で有用なコントラストを導出する。
最後に,CEntがテキスト分類器の脆弱性を検出するツールとして機能することを示す。
関連論文リスト
- PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは,ポイントマスク自動エンコーダのグローバルな特徴表現を強化する,自己教師型学習フレームワークである。
PseudoNeg-MAE は ModelNet40 と ScanObjectNN のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Tilt your Head: Activating the Hidden Spatial-Invariance of Classifiers [0.7704032792820767]
ディープニューラルネットワークは、日々の生活の多くの領域に適用されている。
これらは、空間的に変換された入力信号に頑健に対処するなど、依然として必須の能力が欠如している。
本稿では,ニューラルネットの推論過程をエミュレートする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:47:29Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - Learning Conditional Invariance through Cycle Consistency [60.85059977904014]
本稿では,データセットの変動の有意義な要因と独立な要因を識別する新しい手法を提案する。
提案手法は,対象プロパティと残りの入力情報に対する2つの別個の潜在部分空間を含む。
我々は,より意味のある因子を同定し,よりスペーサーや解釈可能なモデルに導く合成および分子データについて実証する。
論文 参考訳(メタデータ) (2021-11-25T17:33:12Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Causality-based Counterfactual Explanation for Classification Models [11.108866104714627]
本稿では,プロトタイプに基づく対実的説明フレームワーク(ProCE)を提案する。
ProCEは、カウンターファクトデータの特徴の根底にある因果関係を保存することができる。
さらに,提案手法を応用した多目的遺伝的アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-05-03T09:25:59Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z) - Explaining Predictions by Approximating the Local Decision Boundary [3.60160227126201]
局所決定境界近似(DBA)の新しい手法を提案する。
我々は変分オートエンコーダを訓練し、符号化されたデータ表現のユークリッド潜在空間を学習する。
我々は属性アノテーションを利用して、潜在空間をユーザにとって意味のある属性にマッピングします。
論文 参考訳(メタデータ) (2020-06-14T19:12:42Z) - PushNet: Efficient and Adaptive Neural Message Passing [1.9121961872220468]
メッセージパッシングニューラルネットワークは、最近、グラフ上での表現学習に対する最先端のアプローチへと進化した。
既存のメソッドは、複数のラウンドですべてのエッジに沿って同期メッセージパッシングを実行する。
我々は、収束するまで最も関連性の高いエッジに沿ってのみ情報をプッシュする、新しい非同期メッセージパッシングアプローチについて検討する。
論文 参考訳(メタデータ) (2020-03-04T18:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。