論文の概要: From Shapley Values to Generalized Additive Models and back
- arxiv url: http://arxiv.org/abs/2209.04012v1
- Date: Thu, 8 Sep 2022 19:37:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 13:01:48.032337
- Title: From Shapley Values to Generalized Additive Models and back
- Title(参考訳): 共有価値から一般化付加モデルへ
- Authors: Sebastian Bordt, Ulrike von Luxburg
- Abstract要約: 我々は$n$-Shapley Valuesを紹介します。これはShapley Valuesの自然な拡張で、$n$までの相互作用項による個々の予測を説明します。
Shapley-GAMから任意の順序でShapley Valuesを計算し、これらの説明の限界について正確な洞察を与える。
技術的には、値関数を選択する異なる方法と元の関数の異なる機能分解との間には、1対1の対応があることが示される。
- 参考スコア(独自算出の注目度): 16.665883787432858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In explainable machine learning, local post-hoc explanation algorithms and
inherently interpretable models are often seen as competing approaches. In this
work, offer a novel perspective on Shapley Values, a prominent post-hoc
explanation technique, and show that it is strongly connected with
Glassbox-GAMs, a popular class of interpretable models. We introduce
$n$-Shapley Values, a natural extension of Shapley Values that explain
individual predictions with interaction terms up to order $n$. As $n$
increases, the $n$-Shapley Values converge towards the Shapley-GAM, a uniquely
determined decomposition of the original function. From the Shapley-GAM, we can
compute Shapley Values of arbitrary order, which gives precise insights into
the limitations of these explanations. We then show that Shapley Values recover
generalized additive models of order $n$, assuming that we allow for
interaction terms up to order $n$ in the explanations. This implies that the
original Shapley Values recover Glassbox-GAMs. At the technical end, we show
that there is a one-to-one correspondence between different ways to choose the
value function and different functional decompositions of the original
function. This provides a novel perspective on the question of how to choose
the value function. We also present an empirical analysis of the degree of
variable interaction that is present in various standard classifiers, and
discuss the implications of our results for algorithmic explanations. A python
package to compute $n$-Shapley Values and replicate the results in this paper
is available at \url{https://github.com/tml-tuebingen/nshap}.
- Abstract(参考訳): 説明可能な機械学習では、局所的なポストホックな説明アルゴリズムと本質的に解釈可能なモデルはしばしば競合するアプローチと見なされる。
本研究では,シャプリー・バリュース(Shapley Values)というポストホックな説明技法の新たな視点を提供し,一般的な解釈可能なモデルであるGlassbox-GAMsと強く結びついていることを示す。
我々は$n$-Shapley Valuesを紹介します。これはShapley Valuesの自然な拡張で、$n$までの相互作用項による個々の予測を説明します。
n$が増加するにつれて、$n$-Shapley値は、元の関数のユニークな分解であるShapley-GAMに収束する。
Shapley-GAMから任意の順序でShapley Valuesを計算し、これらの説明の限界について正確な洞察を与える。
すると、Shapley Values が次数$n$の一般化加法モデルを復元し、説明において$n$までの相互作用項を許容することを仮定する。
これは、オリジナルのShapley ValuesがGlassbox-GAMを復元したことを意味する。
技術的な最後には、値関数を選択する異なる方法と元の関数の異なる機能分解の間に1対1の対応があることを示す。
これは値関数をどのように選択するかという問題に対する新しい視点を提供する。
また,様々な標準分類器に存在する変数相互作用の度合いを実証的に分析し,アルゴリズムによる説明に対する結果の影響について考察する。
n$-shapley値を計算し、結果を再現するpythonパッケージは、 \url{https://github.com/tml-tuebingen/nshap}で入手できる。
関連論文リスト
- Partial Identifiability and Misspecification in Inverse Reinforcement Learning [64.13583792391783]
Inverse Reinforcement Learning の目的は、報酬関数 $R$ をポリシー $pi$ から推論することである。
本稿では,IRLにおける部分的識別性と不特定性について包括的に分析する。
論文 参考訳(メタデータ) (2024-11-24T18:35:46Z) - Transforming and Combining Rewards for Aligning Large Language Models [69.44634017612798]
言語モデルを人間の好みに合わせるための一般的なアプローチは、まず好みデータから報酬モデルを学び、次にこの報酬モデルを使って言語モデルを更新する。
我々は、Bradley-Terry選好モデルから学んだ報酬を変換するために対数シグモイド関数を用いる。
RLHFを用いた言語モデルのアライメント実験は、ベースライン(非変換)アプローチよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-02-01T16:39:28Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Explaining the Model and Feature Dependencies by Decomposition of the
Shapley Value [3.0655581300025996]
共有値は、複雑なモデルをエンドユーザに説明するためのゴートメソッドの1つになっています。
欠点の1つは、いくつかの機能が欠けている場合、常にモデルの出力を必要とすることである。
しかし、これは非自明な選択をもたらす: 未知の機能に条件を付けるか、しないか?
本稿では,両説明を組み合わせ,選択の負担を軽減し,シェープリー値の説明力を高めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-19T12:20:23Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - Is Shapley Explanation for a model unique? [0.0]
特徴の分布とShapley値の関係について検討する。
我々の評価では、特定の特徴に対するShapleyの値は、期待値だけでなく、分散のような他の瞬間にも依存する。
これはモデルの結果(Probability/Log-odds/binary decision、recept/rejectなど)によって異なり、従ってモデルアプリケーションによって異なります。
論文 参考訳(メタデータ) (2021-11-23T15:31:46Z) - groupShapley: Efficient prediction explanation with Shapley values for
feature groups [2.320417845168326]
シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
論文 参考訳(メタデータ) (2021-06-23T08:16:14Z) - Fast Hierarchical Games for Image Explanations [78.16853337149871]
本稿では,シェープリー係数の階層的拡張に基づく画像分類のモデル非依存な説明法を提案する。
他のShapleyベースの説明手法とは異なり、h-Shapはスケーラブルで近似を必要とせずに計算できる。
本手法は,合成データセット,医用画像シナリオ,一般コンピュータビジョン問題において,一般的なシャプリーベースおよび非サプリーベース手法と比較した。
論文 参考訳(メタデータ) (2021-04-13T13:11:02Z) - Predictive and Causal Implications of using Shapley Value for Model
Interpretation [6.744385328015561]
我々は、予測モデルと因果モデルの両方において重要な概念である、シェープ価値と条件独立の関係を確立した。
その結果,モデルから高いShapley値を持つ変数を排除しても必ずしも予測性能を損なうとは限らないことが示唆された。
さらに重要なことに、変数のShapley値は、関心の対象との因果関係を反映しない。
論文 参考訳(メタデータ) (2020-08-12T01:08:08Z) - Towards Efficient Data Valuation Based on the Shapley Value [65.4167993220998]
本稿では,Shapley値を用いたデータ評価の問題点について検討する。
Shapleyの値は、データ値の概念に対して多くのデシダータを満たすユニークなペイオフスキームを定義する。
本稿では,Shapley値を近似する効率的なアルゴリズムのレパートリーを提案する。
論文 参考訳(メタデータ) (2019-02-27T00:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。