論文の概要: Improving the Weighting Strategy in KernelSHAP
- arxiv url: http://arxiv.org/abs/2410.04883v2
- Date: Tue, 06 May 2025 06:40:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:10.953004
- Title: Improving the Weighting Strategy in KernelSHAP
- Title(参考訳): KernelSHAPの軽量化戦略の改善
- Authors: Lars Henry Berge Olsen, Martin Jullum,
- Abstract要約: 説明可能なAI(XAI)では、Shapley値が、複雑な機械学習モデルによる予測を説明する一般的なフレームワークである。
本稿では,結果のShapley値近似のばらつきを低減するために,決定論的重みを1つに置き換えるKernelSHAPの新たな改良を提案する。
提案手法は, 近似したShapley値と同じ精度を保ちながら, 必要なコントリビューション関数の評価を5%$から50%$に削減することができる。
- 参考スコア(独自算出の注目度): 0.8057006406834466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Explainable AI (XAI), Shapley values are a popular model-agnostic framework for explaining predictions made by complex machine learning models. The computation of Shapley values requires estimating non-trivial contribution functions representing predictions with only a subset of the features present. As the number of these terms grows exponentially with the number of features, computational costs escalate rapidly, creating a pressing need for efficient and accurate approximation methods. For tabular data, the KernelSHAP framework is considered the state-of-the-art model-agnostic approximation framework. KernelSHAP approximates the Shapley values using a weighted sample of the contribution functions for different feature subsets. We propose a novel modification of KernelSHAP which replaces the stochastic weights with deterministic ones to reduce the variance of the resulting Shapley value approximations. This may also be combined with our simple, yet effective modification to the KernelSHAP variant implemented in the popular Python library SHAP. Additionally, we provide an overview of established methods. Numerical experiments demonstrate that our methods can reduce the required number of contribution function evaluations by $5\%$ to $50\%$ while preserving the same accuracy of the approximated Shapley values -- essentially reducing the running time by up to $50\%$. These computational advancements push the boundaries of the feature dimensionality and number of predictions that can be accurately explained with Shapley values within a feasible runtime.
- Abstract(参考訳): Explainable AI (XAI)では、Shapley値は複雑な機械学習モデルによる予測を説明するための一般的なモデルに依存しないフレームワークである。
Shapley値の計算には、予測を表す非自明なコントリビューション関数を、現在存在する機能のサブセットのみで推定する必要がある。
これらの項の数が特徴数とともに指数関数的に増加するにつれて、計算コストは急速に増大し、効率的かつ正確な近似法の必要性が増す。
表データの場合、KernelSHAPフレームワークは最先端のモデルに依存しない近似フレームワークであると考えられている。
KernelSHAPは、異なる特徴部分集合に対する寄与関数の重み付きサンプルを使用してShapley値を近似する。
本稿では,確率的重みを決定論的に置き換えたKernelSHAPの新たな修正を提案し,その結果のShapley値近似のばらつきを低減する。
これはまた、人気のあるPythonライブラリSHAPで実装されたKernelSHAPの、単純で効果的な修正と組み合わせてもよいでしょう。
さらに,確立した手法の概要について概説する。
数値実験により,提案手法は,提案手法で必要となるコントリビューション関数の評価を5\%$から50\%$に削減し,近似したShapley値と同じ精度を保ちながら,実行時間を最大50\%$に短縮できることを示した。
これらの計算の進歩は特徴次元と予測数の境界を押し上げ、実現可能なランタイム内でシェープリー値と正確に説明できる。
関連論文リスト
- FW-Shapley: Real-time Estimation of Weighted Shapley Values [21.562508939780532]
我々は、重み付きシェープリー値を効率的に計算するアモータイズされたフレームワークであるFast Weighted Shapleyを提案する。
また,本実験では,基礎的真理重み付きシェープリー値を使用しなくても,理論的に有効であることを示す。
データバリュエーションに関しては、最先端のKNN Shapleyに匹敵するものながら、はるかに高速(14倍)です。
論文 参考訳(メタデータ) (2025-03-09T13:13:14Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - PDD-SHAP: Fast Approximations for Shapley Values using Functional
Decomposition [2.0559497209595823]
我々は、ANOVAに基づく関数分解モデルを用いて説明中のブラックボックスモデルを近似するアルゴリズムであるPDD-SHAPを提案する。
これにより、Shapleyの値を既存の大規模データセットの手法よりも桁違いに高速に計算でき、Shapleyの計算コストを大幅に削減できる。
論文 参考訳(メタデータ) (2022-08-26T11:49:54Z) - RKHS-SHAP: Shapley Values for Kernel Methods [17.52161019964009]
本稿では,エフェクトインターベンショナル値とエフェクトオブザーショナルシェープ値の両方を効率的に計算できるカーネルマシンの属性法を提案する。
提案手法は局所的な摂動に対して頑健であることを示す。
論文 参考訳(メタデータ) (2021-10-18T10:35:36Z) - groupShapley: Efficient prediction explanation with Shapley values for
feature groups [2.320417845168326]
シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
論文 参考訳(メタデータ) (2021-06-23T08:16:14Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Fast Hierarchical Games for Image Explanations [78.16853337149871]
本稿では,シェープリー係数の階層的拡張に基づく画像分類のモデル非依存な説明法を提案する。
他のShapleyベースの説明手法とは異なり、h-Shapはスケーラブルで近似を必要とせずに計算できる。
本手法は,合成データセット,医用画像シナリオ,一般コンピュータビジョン問題において,一般的なシャプリーベースおよび非サプリーベース手法と比較した。
論文 参考訳(メタデータ) (2021-04-13T13:11:02Z) - A Multilinear Sampling Algorithm to Estimate Shapley Values [4.771833920251869]
ゲーム理論に適用したマルチ線形拡張手法に基づく新しいサンプリング手法を提案する。
本手法は任意の機械学習モデル,特に多クラス分類や回帰問題に適用可能である。
論文 参考訳(メタデータ) (2020-10-22T21:47:16Z) - Scalable Control Variates for Monte Carlo Methods via Stochastic
Optimization [62.47170258504037]
本稿では,制御,カーネル,ニューラルネットワークを用いた既存のアプローチを包含し,一般化するフレームワークを提案する。
新たな理論的結果は、達成可能な分散還元に関する洞察を与えるために提示され、ベイズ推定への応用を含む経験的評価が支持される。
論文 参考訳(メタデータ) (2020-06-12T22:03:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。