論文の概要: A Unified Framework for Provably Efficient Algorithms to Estimate Shapley Values
- arxiv url: http://arxiv.org/abs/2506.05216v1
- Date: Thu, 05 Jun 2025 16:30:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.824258
- Title: A Unified Framework for Provably Efficient Algorithms to Estimate Shapley Values
- Title(参考訳): 共有値推定に有効なアルゴリズム統一フレームワーク
- Authors: Tyler Chen, Akshay Seshadri, Mattia J. Villani, Pradeep Niroula, Shouvanik Chakrabarti, Archan Ray, Pranav Deshpande, Romina Yalovetzky, Marco Pistoia, Niraj Kumar,
- Abstract要約: 本稿では,KernelSHAPと関連する推定器を代替サンプリング戦略を用いて構築した,広範かつ統一的なフレームワークについて述べる。
我々は、我々のフレームワークから全ての推定者に適用できる強い非漸近的理論的保証を証明している。
正則なシャプリー値に対する我々のアプローチを検証し、最小値の2乗誤差を最小値のサンプルサイズで連続的に達成する。
- 参考スコア(独自算出の注目度): 4.445994770262589
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Shapley values have emerged as a critical tool for explaining which features impact the decisions made by machine learning models. However, computing exact Shapley values is difficult, generally requiring an exponential (in the feature dimension) number of model evaluations. To address this, many model-agnostic randomized estimators have been developed, the most influential and widely used being the KernelSHAP method (Lundberg & Lee, 2017). While related estimators such as unbiased KernelSHAP (Covert & Lee, 2021) and LeverageSHAP (Musco & Witter, 2025) are known to satisfy theoretical guarantees, bounds for KernelSHAP have remained elusive. We describe a broad and unified framework that encompasses KernelSHAP and related estimators constructed using both with and without replacement sampling strategies. We then prove strong non-asymptotic theoretical guarantees that apply to all estimators from our framework. This provides, to the best of our knowledge, the first theoretical guarantees for KernelSHAP and sheds further light on tradeoffs between existing estimators. Through comprehensive benchmarking on small and medium dimensional datasets for Decision-Tree models, we validate our approach against exact Shapley values, consistently achieving low mean squared error with modest sample sizes. Furthermore, we make specific implementation improvements to enable scalability of our methods to high-dimensional datasets. Our methods, tested on datasets such MNIST and CIFAR10, provide consistently better results compared to the KernelSHAP library.
- Abstract(参考訳): シェープ価値は、機械学習モデルによる決定にどの機能が影響するかを説明する重要なツールとして登場した。
しかし、正確なシェープ値の計算は困難であり、一般にモデル評価の指数的な数(特徴次元)を必要とする。
これを解決するために、多くのモデルに依存しないランダム化推定器が開発され、最も影響力があり広く使われているのが KernelSHAP 法である(Lundberg & Lee, 2017)。
Unbiased KernelSHAP (Covert & Lee, 2021) や LeverageSHAP (Musco & Witter, 2025) のような関連する推定器は理論的保証を満たすことが知られているが、KernelSHAPの限界は解明されていない。
本稿では,KernelSHAPと関連する推定器を代替サンプリング戦略を用いて構築した,広範かつ統一的なフレームワークについて述べる。
そして、我々のフレームワークから全ての推定者に適用できる、強い漸近的でない理論的保証を証明します。
これは私たちの知る限りでは、KernelSHAPに対する最初の理論的保証であり、既存の推定器間のトレードオフにさらなる光を当てています。
決定-軌道モデルのための小・中次元データセットの総合的なベンチマークを通じて、我々は厳密なシェープリー値に対するアプローチを検証し、控えめなサンプルサイズで常に低い平均2乗誤差を達成した。
さらに,本手法の高次元データセットへの拡張性を実現するため,具体的実装の改善を行った。
MNIST や CIFAR10 などのデータセットでテストした本手法は, KernelSHAP ライブラリと比較して一貫した結果が得られる。
関連論文リスト
- Improving the Weighting Strategy in KernelSHAP [0.8057006406834466]
説明可能なAI(XAI)では、Shapley値が、複雑な機械学習モデルによる予測を説明する一般的なフレームワークである。
本稿では,結果のShapley値近似のばらつきを低減するために,決定論的重みを1つに置き換えるKernelSHAPの新たな改良を提案する。
提案手法は, 近似したShapley値と同じ精度を保ちながら, 必要なコントリビューション関数の評価を5%$から50%$に削減することができる。
論文 参考訳(メタデータ) (2024-10-07T10:02:31Z) - Provably Accurate Shapley Value Estimation via Leverage Score Sampling [12.201705893125775]
本稿では,Kernel SHAP の軽量な修正である Leverage SHAP を紹介する。
提案手法は,強力な回帰ツールであるレバレッジスコアサンプリングを用いて,シェープ値の推定とアクティブラーニングの関連性を利用する。
論文 参考訳(メタデータ) (2024-10-02T18:15:48Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - A bandit-learning approach to multifidelity approximation [7.960229223744695]
マルチファイデリティ近似は、科学計算とシミュレーションにおいて重要な技術である。
異なる忠実度のデータを利用して正確な推定を行うためのバンディットラーニング手法を紹介します。
論文 参考訳(メタデータ) (2021-03-29T05:29:35Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z) - Efficient Ensemble Model Generation for Uncertainty Estimation with
Bayesian Approximation in Segmentation [74.06904875527556]
アンサンブルセグメンテーションモデルを構築するための汎用的で効率的なセグメンテーションフレームワークを提案する。
提案手法では,層選択法を用いて効率よくアンサンブルモデルを生成することができる。
また,新たな画素単位の不確実性損失を考案し,予測性能を向上する。
論文 参考訳(メタデータ) (2020-05-21T16:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。