論文の概要: Threading the Needle of On and Off-Manifold Value Functions for Shapley
Explanations
- arxiv url: http://arxiv.org/abs/2202.11919v1
- Date: Thu, 24 Feb 2022 06:22:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 03:01:46.794192
- Title: Threading the Needle of On and Off-Manifold Value Functions for Shapley
Explanations
- Title(参考訳): シャプリー説明のためのオン・オフ・マニフォールド値関数の針のスレッディング
- Authors: Chih-Kuan Yeh, Kuan-Yun Lee, Frederick Liu, Pradeep Ravikumar
- Abstract要約: モデルとデータ多様体の両方を尊重する値関数のデシラタを公理の集合で定式化する。
これらの公理を満たすユニークな値関数が存在することを示す。
- 参考スコア(独自算出の注目度): 40.95261379462059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A popular explainable AI (XAI) approach to quantify feature importance of a
given model is via Shapley values. These Shapley values arose in cooperative
games, and hence a critical ingredient to compute these in an XAI context is a
so-called value function, that computes the "value" of a subset of features,
and which connects machine learning models to cooperative games. There are many
possible choices for such value functions, which broadly fall into two
categories: on-manifold and off-manifold value functions, which take an
observational and an interventional viewpoint respectively. Both these classes
however have their respective flaws, where on-manifold value functions violate
key axiomatic properties and are computationally expensive, while off-manifold
value functions pay less heed to the data manifold and evaluate the model on
regions for which it wasn't trained. Thus, there is no consensus on which class
of value functions to use. In this paper, we show that in addition to these
existing issues, both classes of value functions are prone to adversarial
manipulations on low density regions. We formalize the desiderata of value
functions that respect both the model and the data manifold in a set of axioms
and are robust to perturbation on off-manifold regions, and show that there
exists a unique value function that satisfies these axioms, which we term the
Joint Baseline value function, and the resulting Shapley value the Joint
Baseline Shapley (JBshap), and validate the effectiveness of JBshap in
experiments.
- Abstract(参考訳): 与えられたモデルの機能の重要性を定量化する、一般的な説明可能なAI(XAI)アプローチは、Shapley値経由である。
これらのShapley値は協調ゲームで発生し、XAIコンテキストでそれらを計算するための重要な要素は、機能のサブセットの「値」を計算し、機械学習モデルを協調ゲームに接続するいわゆる値関数である。
そのような値関数には、オンマンフォールド関数とオフマンフォールド関数の2つのカテゴリに分類され、それぞれ観察的視点と介入的視点を取る。
しかし、これらのクラスにはそれぞれの欠点があり、on-manifold値関数はkey axiomaticプロパティに違反し、計算コストが高いが、オフ-manifold値関数はデータ多様体にあまり注意を払わず、トレーニングされていない領域でモデルを評価する。
したがって、どの値関数を使用するかについてのコンセンサスはない。
本稿では,これらの既存の問題に加えて,両方の値関数のクラスが,低密度領域の逆操作に起因していることを示す。
我々は、モデルとデータ多様体の両方を一組の公理で尊重し、オフ多様体上の摂動に頑健な値関数のデシデラタを定式化し、これらの公理を満たす一意的な値関数が存在し、これをジョイントベースライン値関数と呼び、結果として得られたシャプリー値がジョイントベースラインシャプリー(jbshap)となり、実験におけるjbshapの有効性を検証する。
関連論文リスト
- Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - CS-Shapley: Class-wise Shapley Values for Data Valuation in
Classification [24.44357623723746]
CS-Shapleyは,トレーニングインスタンスのクラス内コントリビューションとクラス外コントリビューションを区別する新しい値関数である。
我々の結果は、Shapleyベースのデータバリュエーションは、異なるモデルにわたるアプリケーションに転送可能であることを示唆している。
論文 参考訳(メタデータ) (2022-11-13T03:32:33Z) - Adaptive LASSO estimation for functional hidden dynamic geostatistical
model [69.10717733870575]
関数型隠れ統計モデル(f-HD)のためのペナル化極大推定器(PMLE)に基づく新しいモデル選択アルゴリズムを提案する。
このアルゴリズムは反復最適化に基づいており、適応最小限の収縮・セレクタ演算子(GMSOLAS)ペナルティ関数を用いており、これは不給付のf-HD最大線量推定器によって得られる。
論文 参考訳(メタデータ) (2022-08-10T19:17:45Z) - Future-Dependent Value-Based Off-Policy Evaluation in POMDPs [67.21319339512699]
一般関数近似を用いた部分観測可能なMDP(POMDP)のオフ・ポリティクス評価(OPE)について検討した。
我々は、将来のプロキシを入力として取り込む将来依存値関数を導入し、新しいモデルフリーなOPE法を開発した。
我々は,本手法をダイナミックス学習に拡張し,POMDPにおけるアプローチとよく知られたスペクトル学習手法の関連性を確立する。
論文 参考訳(メタデータ) (2022-07-26T17:53:29Z) - Counterfactual Shapley Additive Explanations [6.916452769334367]
本稿では,逆ファクト生成技術を用いて背景データセットを生成するSHAPの変種であるCoSHAPを提案する。
我々は、特徴属性にShapley値を使用する場合、背景データセットを慎重に考慮するためのアクション可能なリコース設定の必要性を動機付けている。
論文 参考訳(メタデータ) (2021-10-27T08:44:53Z) - Joint Shapley values: a measure of joint feature importance [6.169364905804678]
結合Shapley値を導入し、Shapley公理を直接拡張する。
ジョイントシェープの値は、モデルの予測に対する特徴の平均的な影響を測る。
ゲームの結果、ジョイントシェープの値は既存の相互作用指標とは異なる洞察を示します。
論文 参考訳(メタデータ) (2021-07-23T17:22:37Z) - Explaining the data or explaining a model? Shapley values that uncover
non-linear dependencies [0.0]
本稿では,エネルギー距離相関,アフィン不変距離相関,およびヒルベルト・シュミット独立基準をシェープリー値特性関数として導入し,その利用を実証する。
論文 参考訳(メタデータ) (2020-07-12T15:04:59Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z) - Interpretable feature subset selection: A Shapley value based approach [1.511944009967492]
プレイヤーとしての特徴とヒンジロスに基づく特徴関数を持つ協調ゲームである分類ゲームの概念を導入する。
我々の主な貢献は、任意のデータセットに対して、SVEA値のしきい値0がラベル予測のための共同相互作用が重要である特徴サブセットを特定することを示すことである($star$)。
論文 参考訳(メタデータ) (2020-01-12T16:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。