論文の概要: groupShapley: Efficient prediction explanation with Shapley values for
feature groups
- arxiv url: http://arxiv.org/abs/2106.12228v1
- Date: Wed, 23 Jun 2021 08:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:29:15.900020
- Title: groupShapley: Efficient prediction explanation with Shapley values for
feature groups
- Title(参考訳): groupShapley: 特徴群に対するShapley値を用いた効率的な予測説明
- Authors: Martin Jullum, Annabelle Redelmeier, Kjersti Aas
- Abstract要約: シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
- 参考スコア(独自算出の注目度): 2.320417845168326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shapley values has established itself as one of the most appropriate and
theoretically sound frameworks for explaining predictions from complex machine
learning models. The popularity of Shapley values in the explanation setting is
probably due to its unique theoretical properties. The main drawback with
Shapley values, however, is that its computational complexity grows
exponentially in the number of input features, making it unfeasible in many
real world situations where there could be hundreds or thousands of features.
Furthermore, with many (dependent) features, presenting/visualizing and
interpreting the computed Shapley values also becomes challenging. The present
paper introduces groupShapley: a conceptually simple approach for dealing with
the aforementioned bottlenecks. The idea is to group the features, for example
by type or dependence, and then compute and present Shapley values for these
groups instead of for all individual features. Reducing hundreds or thousands
of features to half a dozen or so, makes precise computations practically
feasible and the presentation and knowledge extraction greatly simplified. We
prove that under certain conditions, groupShapley is equivalent to summing the
feature-wise Shapley values within each feature group. Moreover, we provide a
simulation study exemplifying the differences when these conditions are not
met. We illustrate the usability of the approach in a real world car insurance
example, where groupShapley is used to provide simple and intuitive
explanations.
- Abstract(参考訳): 共有値は、複雑な機械学習モデルから予測を説明する最も適切で理論的に健全なフレームワークの1つとして確立されている。
説明設定におけるシェープリー値の人気は、おそらくそのユニークな理論的性質によるものである。
しかし、Shapley値の最大の欠点は、その計算複雑性が入力機能の数で指数関数的に増加し、何百、何千もの機能がある多くの現実世界の状況では実現不可能であることだ。
さらに、多くの(依存した)機能により、計算されたShapley値の提示と解釈も困難になる。
本稿では,上記のボトルネックに対処するための概念的にシンプルなアプローチであるgroupshapleyを紹介する。
そのアイデアは、例えば、型や依存によって、機能をグループ化し、その後、個々の機能ではなく、これらのグループのためにshapley値を計算し、提示することです。
数百から数千の機能を半ダース程度に削減することで、正確な計算が事実上可能になり、プレゼンテーションや知識の抽出が大幅に単純化される。
特定の条件下では、groupShapleyは各特徴群内の特徴量Shapley値の和と同値であることを示す。
さらに,これらの条件を満たさない場合の違いを示すシミュレーション実験を行う。
このアプローチのユーザビリティを、grouphapleyがシンプルで直感的な説明を提供する実世界の自動車保険の例で説明します。
関連論文リスト
- Improving the Sampling Strategy in KernelSHAP [0.8057006406834466]
KernelSHAPフレームワークは、重み付けされた条件付き期待値のサンプルサブセットを用いて、Shapley値の近似を可能にする。
本稿では,現在最先端戦略における重みの分散を低減するための安定化手法,サンプルサブセットに基づいてShapleyカーネル重みを補正する新しい重み付け方式,および重要なサブセットを包含して修正されたShapleyカーネル重みと統合する簡単な戦略を提案する。
論文 参考訳(メタデータ) (2024-10-07T10:02:31Z) - Shapley Pruning for Neural Network Compression [63.60286036508473]
この研究はShapley値近似を示し、ニューラルネットワーク圧縮の費用対効果の観点から比較分析を行う。
提案した規範的ランキングとその近似は、最先端のネットワーク圧縮を得る実用的な結果を示す。
論文 参考訳(メタデータ) (2024-07-19T11:42:54Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Shapley Sets: Feature Attribution via Recursive Function Decomposition [6.85316573653194]
特徴集合に価値を与える別の帰属的アプローチ、Shapley Setsを提案する。
共有集合は、基礎となるモデルを非分離変数群に分解する。
理論的および実験的に、Shapley SetsがShapley値に基づく代替案に関連する落とし穴を避ける方法を示す。
論文 参考訳(メタデータ) (2023-07-04T15:30:09Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - WeightedSHAP: analyzing and improving Shapley based feature attributions [17.340091573913316]
共有価値(Shapley value)は、個々の特徴の影響を測定するための一般的なアプローチである。
WeightedSHAPを提案する。これはShapleyの価値を一般化し、データから直接フォーカスする限界貢献を学習する。
いくつかの実世界のデータセットにおいて、WeightedSHAPによって識別される影響のある特徴がモデルの予測を再カプセル化できることを示す。
論文 参考訳(メタデータ) (2022-09-27T14:34:07Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - Fast Hierarchical Games for Image Explanations [78.16853337149871]
本稿では,シェープリー係数の階層的拡張に基づく画像分類のモデル非依存な説明法を提案する。
他のShapleyベースの説明手法とは異なり、h-Shapはスケーラブルで近似を必要とせずに計算できる。
本手法は,合成データセット,医用画像シナリオ,一般コンピュータビジョン問題において,一般的なシャプリーベースおよび非サプリーベース手法と比較した。
論文 参考訳(メタデータ) (2021-04-13T13:11:02Z) - Causal Shapley Values: Exploiting Causal Knowledge to Explain Individual
Predictions of Complex Models [6.423239719448169]
シェープ値は、モデルの予測と平均ベースラインの差をモデルへの入力として使用する異なる特徴に関連付けるように設計されている。
これらの「因果」シャプリー値が、それらの望ましい性質を犠牲にすることなく、一般因果グラフに対してどのように導出できるかを示す。
論文 参考訳(メタデータ) (2020-11-03T11:11:36Z) - Towards Efficient Data Valuation Based on the Shapley Value [65.4167993220998]
本稿では,Shapley値を用いたデータ評価の問題点について検討する。
Shapleyの値は、データ値の概念に対して多くのデシダータを満たすユニークなペイオフスキームを定義する。
本稿では,Shapley値を近似する効率的なアルゴリズムのレパートリーを提案する。
論文 参考訳(メタデータ) (2019-02-27T00:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。