論文の概要: Locally Invariant Explanations: Towards Stable and Unidirectional
Explanations through Local Invariant Learning
- arxiv url: http://arxiv.org/abs/2201.12143v1
- Date: Fri, 28 Jan 2022 14:29:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 14:34:41.638563
- Title: Locally Invariant Explanations: Towards Stable and Unidirectional
Explanations through Local Invariant Learning
- Title(参考訳): 局所不変説明:局所不変学習による安定・一方向説明に向けて
- Authors: Amit Dhurandhar, Karthikeyan Ramamurthy, Kartik Ahuja and Vijay Arya
- Abstract要約: 不変リスク最小化原理に着想を得たモデル非依存的局所説明法を提案する。
我々のアルゴリズムは、訓練が簡単で効率的であり、サイド情報にアクセスすることなく、ブラックボックスの局所的な決定のための安定した入力機能を確認することができる。
- 参考スコア(独自算出の注目度): 12.799215415748082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Locally interpretable model agnostic explanations (LIME) method is one of the
most popular methods used to explain black-box models at a per example level.
Although many variants have been proposed, few provide a simple way to produce
high fidelity explanations that are also stable and intuitive. In this work, we
provide a novel perspective by proposing a model agnostic local explanation
method inspired by the invariant risk minimization (IRM) principle --
originally proposed for (global) out-of-distribution generalization -- to
provide such high fidelity explanations that are also stable and unidirectional
across nearby examples. Our method is based on a game theoretic formulation
where we theoretically show that our approach has a strong tendency to
eliminate features where the gradient of the black-box function abruptly
changes sign in the locality of the example we want to explain, while in other
cases it is more careful and will choose a more conservative (feature)
attribution, a behavior which can be highly desirable for recourse.
Empirically, we show on tabular, image and text data that the quality of our
explanations with neighborhoods formed using random perturbations are much
better than LIME and in some cases even comparable to other methods that use
realistic neighbors sampled from the data manifold. This is desirable given
that learning a manifold to either create realistic neighbors or to project
explanations is typically expensive or may even be impossible. Moreover, our
algorithm is simple and efficient to train, and can ascertain stable input
features for local decisions of a black-box without access to side information
such as a (partial) causal graph as has been seen in some recent works.
- Abstract(参考訳): ローカル解釈可能なモデル非依存説明(lime)メソッドは、例ごとにブラックボックスモデルを説明するために使われる最も一般的な方法の1つである。
多くの変種が提案されているが、安定で直感的な高忠実度説明を生成する簡単な方法を提供するものはほとんどない。
本研究では,不変リスク最小化(IRM)原理に着想を得たモデル非依存的局所的説明法を提案する。
本手法は,理論上,ブラックボックス関数の勾配が説明したい例の局所性において突然符号が変化するような特徴を解消する傾向が強いことを理論的に示すゲーム理論定式化に基づいているが,他の場合ではより慎重であり,より保守的な(特徴)属性を選択する。
実験では, ランダムな摂動を用いて生成した近傍における説明の質が, LIMEよりも優れており, また, データ多様体からサンプリングしたリアルな隣人を用いた他の手法に匹敵する場合もある。
これは、写実的な隣人を作るか、説明を投影するために多様体を学ぶことは通常高価であるか、あるいは不可能であるかもしれないことを考慮すれば望ましい。
さらに,本アルゴリズムは訓練が簡単かつ効率的であり,最近の研究で見られるような(部分的な)因果グラフなどのサイド情報にアクセスせずに,ブラックボックスの局所的な決定に対する安定した入力特徴を確認できる。
関連論文リスト
- GLIME: General, Stable and Local LIME Explanation [11.002828804775392]
LIME(Local Interpretable Model-Agnostic Explanations)は、モデル行動を理解するために広く用いられる手法である。
GLIMEは、LIMEを拡張し、いくつかの先行メソッドを統合する拡張フレームワークである。
局所的および非バイアスなサンプリング分布を用いることで、GLIMEはLIMEと比較して局所的忠実度の高い説明を生成する。
論文 参考訳(メタデータ) (2023-11-27T11:17:20Z) - Sampling Based On Natural Image Statistics Improves Local Surrogate
Explainers [111.31448606885672]
代理説明器は、モデルが予測にどのように到着するかをさらに理解するために、ポストホック解釈法として人気がある。
そこで本研究では,(1)局所領域のサンプリング方法を変更すること,(2)自然画像の分布特性を知覚的指標を用いて伝達すること,の2つの手法を提案する。
論文 参考訳(メタデータ) (2022-08-08T08:10:13Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Towards Better Model Understanding with Path-Sufficient Explanations [11.517059323883444]
Path-Sufficient Explanations Method (PSEM) は、厳格に小さくなった入力に対する十分な説明の系列である。
PSEMはモデルの局所的な境界を滑らかに辿り、特定の入力に対する局所的なモデルの振る舞いに関するより良い直感を与えると考えられる。
ユーザスタディでは、(多くの)ユーザがモデルによってなされた予測を正しく決定できる地域行動を伝える方法の強みを描いている。
論文 参考訳(メタデータ) (2021-09-13T16:06:10Z) - Locally Interpretable Model Agnostic Explanations using Gaussian
Processes [2.9189409618561966]
LIME(Local Interpretable Model-Agnostic Explanations)は、単一インスタンスの予測を説明する一般的なテクニックである。
局所的解釈可能なモデルのガウス過程(GP)に基づくバリエーションを提案する。
提案手法は,LIMEに比べてはるかに少ないサンプルを用いて忠実な説明を生成可能であることを示す。
論文 参考訳(メタデータ) (2021-08-16T05:49:01Z) - Evaluation of Local Model-Agnostic Explanations Using Ground Truth [4.278336455989584]
説明手法は人為的手法を用いて一般的に評価される。
本稿では,局所モデルに依存しない説明手法に関する機能的評価手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T13:47:31Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Learning explanations that are hard to vary [75.30552491694066]
例を越えた平均化は、異なる戦略を縫合する記憶とパッチワークのソリューションに有利であることを示す。
そこで我々は論理ANDに基づく単純な代替アルゴリズムを提案し,実験的に検証する。
論文 参考訳(メタデータ) (2020-09-01T10:17:48Z) - Stein Variational Inference for Discrete Distributions [70.19352762933259]
離散分布を等価なピースワイズ連続分布に変換する単純な一般フレームワークを提案する。
提案手法は,ギブスサンプリングや不連続ハミルトニアンモンテカルロといった従来のアルゴリズムよりも優れている。
我々は,この手法がバイナライズニューラルネットワーク(BNN)のアンサンブルを学習するための有望なツールであることを実証した。
さらに、そのような変換は、勾配のないカーネル化されたStein差分に簡単に適用でき、離散分布の良性(GoF)テストを実行することができる。
論文 参考訳(メタデータ) (2020-03-01T22:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。