論文の概要: Regression-adjusted Monte Carlo Estimators for Shapley Values and Probabilistic Values
- arxiv url: http://arxiv.org/abs/2506.11849v1
- Date: Fri, 13 Jun 2025 14:57:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.837877
- Title: Regression-adjusted Monte Carlo Estimators for Shapley Values and Probabilistic Values
- Title(参考訳): 共有値と確率値に対する回帰調整モンテカルロ推定器
- Authors: R. Teal Witter, Yurong Liu, Christopher Musco,
- Abstract要約: 確率的価値は、説明可能なAIの中心的なツールとして現れている。
モンテカルロサンプリングと線形回帰定式化を組み合わせた新しい手法を提案する。
8つのデータセットにまたがる実験から、我々の手法が最先端のパフォーマンスをもたらすことがわかった。
- 参考スコア(独自算出の注目度): 12.417327125279176
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With origins in game theory, probabilistic values like Shapley values, Banzhaf values, and semi-values have emerged as a central tool in explainable AI. They are used for feature attribution, data attribution, data valuation, and more. Since all of these values require exponential time to compute exactly, research has focused on efficient approximation methods using two techniques: Monte Carlo sampling and linear regression formulations. In this work, we present a new way of combining both of these techniques. Our approach is more flexible than prior algorithms, allowing for linear regression to be replaced with any function family whose probabilistic values can be computed efficiently. This allows us to harness the accuracy of tree-based models like XGBoost, while still producing unbiased estimates. From experiments across eight datasets, we find that our methods give state-of-the-art performance for estimating probabilistic values. For Shapley values, the error of our methods can be $6.5\times$ lower than Permutation SHAP (the most popular Monte Carlo method), $3.8\times$ lower than Kernel SHAP (the most popular linear regression method), and $2.6\times$ lower than Leverage SHAP (the prior state-of-the-art Shapley value estimator). For more general probabilistic values, we can obtain error $215\times$ lower than the best estimator from prior work.
- Abstract(参考訳): ゲーム理論の起源から、Shapley値やBanzhaf値、セミバリューといった確率的価値が、説明可能なAIの中心的なツールとして登場した。
それらは、機能属性、データ属性、データバリュエーションなどに使われる。
これらの値はいずれも正確に計算するのに指数時間を必要とするため、モンテカルロサンプリングと線形回帰定式化という2つの手法を用いた効率的な近似法に焦点が当てられている。
本研究では,これら2つの手法を組み合わせる新しい方法を提案する。
我々の手法は従来のアルゴリズムよりも柔軟であり、線形回帰を確率的値を効率的に計算できる任意の関数族に置き換えることができる。
これにより、XGBoostのようなツリーベースのモデルの精度を活用できます。
8つのデータセットにまたがる実験から,我々の手法は確率的値の推定に最先端のパフォーマンスを与えることがわかった。
シェープリー値に対して、我々の手法の誤差は、置換SHAP(最も一般的なモンテカルロ法)よりも6.5\times$低い値、ケルネルSHAP(最も人気のある線形回帰法)より3.8\times$低い値、レバレッジSHAP(最先端のシェープリー値推定器)より2.6\times$低い値である。
より一般的な確率的値については、事前の作業から最高の推定値よりも215\times$低い誤差が得られる。
関連論文リスト
- Improving the Weighting Strategy in KernelSHAP [0.8057006406834466]
説明可能なAI(XAI)では、Shapley値が、複雑な機械学習モデルによる予測を説明する一般的なフレームワークである。
本稿では,結果のShapley値近似のばらつきを低減するために,決定論的重みを1つに置き換えるKernelSHAPの新たな改良を提案する。
提案手法は, 近似したShapley値と同じ精度を保ちながら, 必要なコントリビューション関数の評価を5%$から50%$に削減することができる。
論文 参考訳(メタデータ) (2024-10-07T10:02:31Z) - Accelerated Shapley Value Approximation for Data Evaluation [3.707457963532597]
機械学習問題の構造的特性を活用することにより,データポイントのシェープ値をより効率的に近似できることを示す。
我々の分析は、データバリュエーションの文脈において、小さなサブセットで訓練されたモデルはより重要であることを示唆している。
論文 参考訳(メタデータ) (2023-11-09T13:15:36Z) - Sparse Gaussian Graphical Models with Discrete Optimization:
Computational and Statistical Perspectives [8.403841349300103]
本研究では,無向ガウス図形モデルに基づくスパースグラフの学習問題を考察する。
擬似微分関数の $ell_0$-penalized バージョンに基づく新しい推定器 GraphL0BnB を提案する。
実/合成データセットに関する数値実験により,本手法がほぼ最適に,p = 104$の問題を解けることが示唆された。
論文 参考訳(メタデータ) (2023-07-18T15:49:02Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Markov Decision
Processes [80.89852729380425]
そこで本研究では,最小限の最小残差である$tilde O(dsqrtH3K)$を計算効率よく実現したアルゴリズムを提案する。
我々の研究は線形 MDP を用いた最適 RL に対する完全な答えを提供する。
論文 参考訳(メタデータ) (2022-12-12T18:58:59Z) - Human-in-the-loop: Provably Efficient Preference-based Reinforcement
Learning with General Function Approximation [107.54516740713969]
本研究は,RL(Human-in-the-loop reinforcement learning)を軌道的嗜好で検討する。
各ステップで数値的な報酬を受ける代わりに、エージェントは人間の監督者から軌道上のペアよりも優先される。
一般関数近似を用いたPbRLの楽観的モデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T09:03:24Z) - Faster Algorithms and Constant Lower Bounds for the Worst-Case Expected
Error [0.3997680012976965]
目標は、最悪の予測エラーを最小限に抑える推定器を設計することである。
Chen, Valiant および Valiant は、データ値が $ell_infty$-normalized の場合、平均の推定値を計算する時間アルゴリズムが存在することを示した。
本稿では,オンライン凸最適化に基づく最適半線形推定器の近似アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-12-27T18:47:25Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。