論文の概要: SHAP-XRT: The Shapley Value Meets Conditional Independence Testing
- arxiv url: http://arxiv.org/abs/2207.07038v5
- Date: Wed, 27 Dec 2023 15:58:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 23:56:22.688353
- Title: SHAP-XRT: The Shapley Value Meets Conditional Independence Testing
- Title(参考訳): SHAP-XRT: 条件付き独立テストを実現するShapley Value
- Authors: Jacopo Teneggi, Beepul Bharti, Yaniv Romano and Jeremias Sulam
- Abstract要約: そこで本研究では,Shapleyに基づく説明手法と条件付き独立性テストが密接に関連していることを示す。
本研究では,条件付きランダム化テスト(CRT, Conditional Randomization Test)にインスパイアされたテスト手法であるSHAPley Explanation Randomization Test(SHAP-XRT)を紹介した。
我々は、Shapley値自体が大域(つまり全体)のnull仮説の期待$p$-値に上限を与えることを示した。
- 参考スコア(独自算出の注目度): 21.794110108580746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The complex nature of artificial neural networks raises concerns on their
reliability, trustworthiness, and fairness in real-world scenarios. The Shapley
value -- a solution concept from game theory -- is one of the most popular
explanation methods for machine learning models. More traditionally, from a
statistical perspective, feature importance is defined in terms of conditional
independence. So far, these two approaches to interpretability and feature
importance have been considered separate and distinct. In this work, we show
that Shapley-based explanation methods and conditional independence testing are
closely related. We introduce the SHAPley EXplanation Randomization Test
(SHAP-XRT), a testing procedure inspired by the Conditional Randomization Test
(CRT) for a specific notion of local (i.e., on a sample) conditional
independence. With it, we prove that for binary classification problems, the
marginal contributions in the Shapley value provide lower and upper bounds to
the expected $p$-values of their respective tests. Furthermore, we show that
the Shapley value itself provides an upper bound to the expected $p$-value of a
global (i.e., overall) null hypothesis. As a result, we further our
understanding of Shapley-based explanation methods from a novel perspective and
characterize the conditions under which one can make statistically valid claims
about feature importance via the Shapley value.
- Abstract(参考訳): ニューラルネットワークの複雑な性質は、現実世界のシナリオにおける信頼性、信頼性、公平性に関する懸念を引き起こす。
ゲーム理論のソリューション概念であるShapley値は、機械学習モデルの最も一般的な説明方法の1つである。
より伝統的に、統計的観点から、特徴の重要性は条件付き独立の観点で定義される。
これまでのところ、解釈可能性と特徴の重要性の2つのアプローチは別々に検討されてきた。
本研究では,shapleyに基づく説明手法と条件付き独立性テストが密接な関係にあることを示す。
本研究では,条件付きランダム化テスト(CRT, Conditional Randomization Test)にインスパイアされたテスト手法であるSHAPley Explanation Randomization Test(SHAP-XRT)を紹介した。
これにより、二分分類問題において、shapley値の限界寄与は、それぞれのテストで期待される$p$-valuesに対して下限と上限を与えることが証明される。
さらに、シャプリー値自体が、大域的(すなわち全体的)ヌル仮説の期待される$p$-値に対する上限を与えることを示した。
その結果,新たな視点からシェープリーに基づく説明手法の理解を深め,シェープリー値を用いて特徴量に関する統計的に妥当な主張をすることができる条件を特徴付けることができた。
関連論文リスト
- Precision of Individual Shapley Value Explanations [0.0]
共有値は、複雑な機械学習(ML)モデルによる予測を説明するためのフレームワークとして、説明可能な人工知能(XAI)で広く使用されている。
本研究では, トレーニングデータ分布の外部領域の観測において, 系統的に精度が低いことを示す。
これは統計的観点から予測されるが、我々の知る限りでは、シェープリー価値文学において体系的に扱われていない。
論文 参考訳(メタデータ) (2023-12-06T13:29:23Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - Nonparametric Conditional Local Independence Testing [69.31200003384122]
条件付き局所独立は、連続的な時間プロセス間の独立関係である。
条件付き地域独立の非パラメトリックテストは行われていない。
二重機械学習に基づく非パラメトリックテストを提案する。
論文 参考訳(メタデータ) (2022-03-25T10:31:02Z) - Is Shapley Explanation for a model unique? [0.0]
特徴の分布とShapley値の関係について検討する。
我々の評価では、特定の特徴に対するShapleyの値は、期待値だけでなく、分散のような他の瞬間にも依存する。
これはモデルの結果(Probability/Log-odds/binary decision、recept/rejectなど)によって異なり、従ってモデルアプリケーションによって異なります。
論文 参考訳(メタデータ) (2021-11-23T15:31:46Z) - Collective eXplainable AI: Explaining Cooperative Strategies and Agent
Contribution in Multiagent Reinforcement Learning with Shapley Values [68.8204255655161]
本研究は,シェープリー値を用いたマルチエージェントRLにおける協調戦略を説明するための新しい手法を提案する。
結果は、差別的でない意思決定、倫理的かつ責任あるAI由来の意思決定、公正な制約の下での政策決定に影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2021-10-04T10:28:57Z) - groupShapley: Efficient prediction explanation with Shapley values for
feature groups [2.320417845168326]
シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
論文 参考訳(メタデータ) (2021-06-23T08:16:14Z) - Causal Shapley Values: Exploiting Causal Knowledge to Explain Individual
Predictions of Complex Models [6.423239719448169]
シェープ値は、モデルの予測と平均ベースラインの差をモデルへの入力として使用する異なる特徴に関連付けるように設計されている。
これらの「因果」シャプリー値が、それらの望ましい性質を犠牲にすることなく、一般因果グラフに対してどのように導出できるかを示す。
論文 参考訳(メタデータ) (2020-11-03T11:11:36Z) - Predictive and Causal Implications of using Shapley Value for Model
Interpretation [6.744385328015561]
我々は、予測モデルと因果モデルの両方において重要な概念である、シェープ価値と条件独立の関係を確立した。
その結果,モデルから高いShapley値を持つ変数を排除しても必ずしも予測性能を損なうとは限らないことが示唆された。
さらに重要なことに、変数のShapley値は、関心の対象との因果関係を反映しない。
論文 参考訳(メタデータ) (2020-08-12T01:08:08Z) - Towards Efficient Data Valuation Based on the Shapley Value [65.4167993220998]
本稿では,Shapley値を用いたデータ評価の問題点について検討する。
Shapleyの値は、データ値の概念に対して多くのデシダータを満たすユニークなペイオフスキームを定義する。
本稿では,Shapley値を近似する効率的なアルゴリズムのレパートリーを提案する。
論文 参考訳(メタデータ) (2019-02-27T00:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。