論文の概要: Statistical Inference and Learning for Shapley Additive Explanations (SHAP)
- arxiv url: http://arxiv.org/abs/2602.10532v1
- Date: Wed, 11 Feb 2026 05:01:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.482383
- Title: Statistical Inference and Learning for Shapley Additive Explanations (SHAP)
- Title(参考訳): Shapley Additive Explanations(SHAP)の統計的推測と学習
- Authors: Justin Whitehouse, Ayush Sawarni, Vasilis Syrgkanis,
- Abstract要約: SHAP(Shapley additive explanation)フレームワークは、予測タスクにおける変数の重要性に寄与する重要なツールとなっている。
その普遍性にもかかわらず、これらの量に関する統計的推測を行うためのアプローチは存在しない。
SHAP曲線をデータから推定しなければならないニュアンス関数として扱うことにより、SHAPの$p$thの乗算を確実に構成的に正規化できることを示す。
- 参考スコア(独自算出の注目度): 20.663970002208846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The SHAP (short for Shapley additive explanation) framework has become an essential tool for attributing importance to variables in predictive tasks. In model-agnostic settings, SHAP uses the concept of Shapley values from cooperative game theory to fairly allocate credit to the features in a vector $X$ based on their contribution to an outcome $Y$. While the explanations offered by SHAP are local by nature, learners often need global measures of feature importance in order to improve model explainability and perform feature selection. The most common approach for converting these local explanations into global ones is to compute either the mean absolute SHAP or mean squared SHAP. However, despite their ubiquity, there do not exist approaches for performing statistical inference on these quantities. In this paper, we take a semi-parametric approach for calibrating confidence in estimates of the $p$th powers of Shapley additive explanations. We show that, by treating the SHAP curve as a nuisance function that must be estimated from data, one can reliably construct asymptotically normal estimates of the $p$th powers of SHAP. When $p \geq 2$, we show a de-biased estimator that combines U-statistics with Neyman orthogonal scores for functionals of nested regressions is asymptotically normal. When $1 \leq p < 2$ (and the hence target parameter is not twice differentiable), we construct de-biased U-statistics for a smoothed alternative. In particular, we show how to carefully tune the temperature parameter of the smoothing function in order to obtain inference for the true, unsmoothed $p$th power. We complement these results by presenting a Neyman orthogonal loss that can be used to learn the SHAP curve via empirical risk minimization and discussing excess risk guarantees for commonly used function classes.
- Abstract(参考訳): SHAP(Shapley additive explanation)フレームワークは、予測タスクにおける変数の重要性に寄与する重要なツールとなっている。
モデルに依存しない設定では、SHAPは協調ゲーム理論のShapley値の概念を用いてベクター$X$の機能に対する信用を、結果$Y$への貢献に基づいて公平に割り当てる。
SHAPが提供する説明は自然に局所的であるが、学習者はモデル説明性を改善し、特徴選択を行うために、機能の重要性をグローバルに測定する必要があることが多い。
これらの局所的な説明を大域的な説明に変換する最も一般的なアプローチは、平均絶対値 SHAP または平均平方値 SHAP を計算することである。
しかし、その普遍性にもかかわらず、これらの量に関する統計的推測を行うためのアプローチは存在しない。
本稿では,Shapley加法的説明の$p$4の値の信頼度を算定する半パラメトリック手法を提案する。
SHAP曲線をデータから推定しなければならないニュアンス関数として扱うことにより、SHAPの$p$thの漸近正規推定を確実に構築できることを示す。
p \geq 2$ のとき、ネストレグレッションの関数に対するU-統計とナイマン直交スコアを組み合わせた非バイアス推定器は漸近的に正規である。
1 \leq p < 2$ (従って対象パラメータは2倍の微分可能でない) の場合、滑らかな代替として非バイアス付き U-統計学を構築する。
特に, 平滑化関数の温度パラメータを慎重に調整して, 真の, 平滑化されていない$p$thパワーの推算値を求める方法を示す。
実験的なリスク最小化によるSHAP曲線の学習に使用できるナイマン直交損失を提示し、よく使われる関数クラスに対する過剰なリスク保証について議論することにより、これらの結果を補完する。
関連論文リスト
- Statistical Inference for Explainable Boosting Machines [5.01181440341076]
説明可能なブースティングマシン(EBM)は、各機能の効果を視覚化した一般的な"グラスボックス"モデルである。
本稿では,近年の統計的推論による勾配向上,統計的推論の手法の導出,およびエンドツーエンドの理論的保証について提案する。
論文 参考訳(メタデータ) (2026-01-26T17:51:09Z) - Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - On the Identifiability and Estimation of Causal Location-Scale Noise
Models [122.65417012597754]
位置スケール・異方性雑音モデル(LSNM)のクラスについて検討する。
症例によっては, 因果方向が同定可能であることが示唆された。
我々は,LSNMの2つの推定器を提案し,その1つは(非線形)特徴写像に基づく推定器と,1つはニューラルネットワークに基づく推定器を提案する。
論文 参考訳(メタデータ) (2022-10-13T17:18:59Z) - Consistent Sufficient Explanations and Minimal Local Rules for
explaining regression and classification models [0.0]
我々は確率的十分説明(P-SE)の概念を拡張した
P-SEの要点は、同じ予測を維持する条件確率を計算することである。
我々は、$X$の分布を学ばず、予測を行うモデルも持たない非バイナリ機能に対処する。
論文 参考訳(メタデータ) (2021-11-08T17:27:52Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z) - Unbiased Estimation Equation under $f$-Separable Bregman Distortion
Measures [0.3553493344868413]
単調に増大する関数$f$とブレグマン発散を用いた対象関数のクラスにおける非バイアス推定方程式について議論する。
関数 $f$ の選択は、外れ値に対するロバスト性のような望ましい性質を与える。
本研究では, バイアス補正項が消滅したブレグマン発散, 統計モデル, 関数$f$の組み合わせを明らかにする。
論文 参考訳(メタデータ) (2020-10-23T10:33:55Z) - Estimation in Tensor Ising Models [5.161531917413708]
N$ノード上の分布から1つのサンプルを与えられた$p$-tensor Isingモデルの自然パラメータを推定する問題を考える。
特に、$sqrt N$-consistency of the MPL estimate in the $p$-spin Sherrington-Kirkpatrick (SK) model。
我々は、$p$-tensor Curie-Weiss モデルの特別な場合における MPL 推定の正確なゆらぎを導出する。
論文 参考訳(メタデータ) (2020-08-29T00:06:58Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。