論文の概要: Explaining Predictions by Approximating the Local Decision Boundary
- arxiv url: http://arxiv.org/abs/2006.07985v2
- Date: Thu, 22 Oct 2020 18:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 09:58:59.130596
- Title: Explaining Predictions by Approximating the Local Decision Boundary
- Title(参考訳): 局所的決定境界の近似による予測
- Authors: Georgios Vlassopoulos, Tim van Erven, Henry Brighton and Vlado
Menkovski
- Abstract要約: 局所決定境界近似(DBA)の新しい手法を提案する。
我々は変分オートエンコーダを訓練し、符号化されたデータ表現のユークリッド潜在空間を学習する。
我々は属性アノテーションを利用して、潜在空間をユーザにとって意味のある属性にマッピングします。
- 参考スコア(独自算出の注目度): 3.60160227126201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constructing accurate model-agnostic explanations for opaque machine learning
models remains a challenging task. Classification models for high-dimensional
data, like images, are often inherently complex. To reduce this complexity,
individual predictions may be explained locally, either in terms of a simpler
local surrogate model or by communicating how the predictions contrast with
those of another class. However, existing approaches still fall short in the
following ways: a) they measure locality using a (Euclidean) metric that is not
meaningful for non-linear high-dimensional data; or b) they do not attempt to
explain the decision boundary, which is the most relevant characteristic of
classifiers that are optimized for classification accuracy; or c) they do not
give the user any freedom in specifying attributes that are meaningful to them.
We address these issues in a new procedure for local decision boundary
approximation (DBA). To construct a meaningful metric, we train a variational
autoencoder to learn a Euclidean latent space of encoded data representations.
We impose interpretability by exploiting attribute annotations to map the
latent space to attributes that are meaningful to the user. A difficulty in
evaluating explainability approaches is the lack of a ground truth. We address
this by introducing a new benchmark data set with artificially generated Iris
images, and showing that we can recover the latent attributes that locally
determine the class. We further evaluate our approach on tabular data and on
the CelebA image data set.
- Abstract(参考訳): 不透明な機械学習モデルのための正確なモデル非依存の説明の構築は、依然として困難な課題である。
画像のような高次元データの分類モデルは本質的に複雑であることが多い。
この複雑さを減らすために、個々の予測は、より単純な局所的サロゲートモデルか、あるいは予測が他のクラスの予測とどのように対照的かを伝えることによって、ローカルに説明できる。
しかし、既存のアプローチは下記のように不足している。
a) 非線型高次元データに意味のない(ユークリッド)計量を用いて局所性を測定すること
b) 分類精度に最適化された分類器の最も関連する特徴である決定境界の説明を試みていないこと。
c) ユーザに対して意味のある属性を指定する自由を与えない。
我々はこれらの問題を,局所的決定境界近似(DBA)の新しい手順で解決する。
有意義なメトリックを構築するために、変分オートエンコーダを訓練し、符号化されたデータ表現のユークリッド潜在空間を学習する。
属性アノテーションを利用して、潜在空間をユーザにとって意味のある属性にマップすることで、解釈性を課します。
説明可能性アプローチの評価が難しいのは、根拠となる真実がないことである。
我々は、人工的に生成された虹彩画像を用いた新しいベンチマークデータセットを導入し、そのクラスを局所的に決定する潜在属性を復元できることを示す。
我々はさらに,表データとceleba画像データセットに対するアプローチを評価した。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - MASALA: Model-Agnostic Surrogate Explanations by Locality Adaptation [3.587367153279351]
既存のローカル説明可能なAI(XAI)メソッドは、与えられた入力インスタンスの近傍にある入力空間の領域を選択し、より単純で解釈可能な代理モデルを用いてモデルの振る舞いを近似する。
そこで本研究では,各インスタンスごとの衝突モデル行動の適切な局所領域を自動決定する手法であるMASALAを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:26:45Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - CEnt: An Entropy-based Model-agnostic Explainability Framework to
Contrast Classifiers' Decisions [2.543865489517869]
我々は任意の分類器の予測を局所的に対比する新しい手法を提案する。
コントラストエントロピーに基づく説明法CEntは、決定木によって局所的にモデルを近似し、異なる特徴分割のエントロピー情報を算出する。
CEntは、不変性(人種など)と半不変性(年齢が増加する方向にしか変化しない)を満足しながら、トレーニングデータに必ずしも存在しない多様な反事実を生成する最初の非漸進的コントラスト法である。
論文 参考訳(メタデータ) (2023-01-19T08:23:34Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Post-hoc explanation of black-box classifiers using confident itemsets [12.323983512532651]
ブラックボックス人工知能(AI)法は予測モデルの構築に広く利用されている。
内部動作や決定ロジックがユーザから隠されているため,そのような方法による決定を信頼することは困難である。
論文 参考訳(メタデータ) (2020-05-05T08:11:24Z) - Null It Out: Guarding Protected Attributes by Iterative Nullspace
Projection [51.041763676948705]
Iterative Null-space Projection (INLP) は神経表現から情報を取り除く新しい方法である。
提案手法は,単語埋め込みにおけるバイアスを軽減するとともに,複数クラス分類の設定において公平性を高めることができることを示す。
論文 参考訳(メタデータ) (2020-04-16T14:02:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。