論文の概要: From Shapley back to Pearson: Hypothesis Testing via the Shapley Value
- arxiv url: http://arxiv.org/abs/2207.07038v1
- Date: Thu, 14 Jul 2022 16:28:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 16:42:06.186244
- Title: From Shapley back to Pearson: Hypothesis Testing via the Shapley Value
- Title(参考訳): ShapleyからPearsonへ:Shapleyバリューによる仮説テスト
- Authors: Jacopo Teneggi, Beepul Bharti, Yaniv Romano and Jeremias Sulam
- Abstract要約: 本研究は,Shapleyをベースとした特徴量評価手法と条件付き独立性テストが密接に関連していることを示す。
我々は,シャプリー係数の評価が条件付き独立テストの実行に等しいことを証明した。
- 参考スコア(独自算出の注目度): 13.553800479430809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models, in particular artificial neural networks, are
increasingly used to inform decision making in high-stakes scenarios across a
variety of fields--from financial services, to public safety, and healthcare.
While neural networks have achieved remarkable performance in many settings,
their complex nature raises concerns on their reliability, trustworthiness, and
fairness in real-world scenarios. As a result, several a-posteriori explanation
methods have been proposed to highlight the features that influence a model's
prediction. Notably, the Shapley value--a game theoretic quantity that
satisfies several desirable properties--has gained popularity in the machine
learning explainability literature. More traditionally, however, feature
importance in statistical learning has been formalized by conditional
independence, and a standard way to test for it is via Conditional
Randomization Tests (CRTs). So far, these two perspectives on interpretability
and feature importance have been considered distinct and separate. In this
work, we show that Shapley-based explanation methods and conditional
independence testing for feature importance are closely related. More
precisely, we prove that evaluating a Shapley coefficient amounts to performing
a specific set of conditional independence tests, as implemented by a procedure
similar to the CRT but for a different null hypothesis. Furthermore, the
obtained game-theoretic values upper bound the $p$-values of such tests. As a
result, we grant large Shapley coefficients with a precise statistical sense of
importance with controlled type I error.
- Abstract(参考訳): マシンラーニングモデル、特にニューラルネットワークは、金融サービスから公共の安全、医療に至るまで、さまざまな分野の高リスクシナリオにおいて、意思決定を知らせるためにますます使われています。
ニューラルネットワークは多くの設定で顕著なパフォーマンスを達成したが、その複雑な性質は、現実のシナリオにおける信頼性、信頼性、公平性への懸念を引き起こす。
その結果,モデルの予測に影響を及ぼす特徴を明らかにするために,いくつかのアポテリオリ説明法が提案されている。
特に、Shapley値(いくつかの望ましい性質を満たすゲーム理論量)は、機械学習の説明可能性文学で人気を博した。
しかし、より伝統的に、統計的学習における特徴の重要性は条件付き独立によって形式化され、それをテストする標準的な方法は条件付きランダム化テスト(CRT)である。
これまでのところ、解釈可能性と特徴の重要性に関する2つの視点は、別々に検討されてきた。
本研究では,shapleyに基づく説明手法と特徴量に対する条件付き独立性テストが密接な関係にあることを示す。
より正確には、シャプリー係数の評価は、crtに類似するが異なるヌル仮説のために実装されるような条件付き独立性テストの特定の集合の実行に等しいことが証明される。
さらに、得られたゲーム理論値が、そのようなテストの$p$-値を上乗せする。
その結果、制御されたI型誤差で精度の高い統計的意味を持つ大きなシェープリー係数が得られた。
関連論文リスト
- Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - Precision of Individual Shapley Value Explanations [0.0]
共有値は、複雑な機械学習(ML)モデルによる予測を説明するためのフレームワークとして、説明可能な人工知能(XAI)で広く使用されている。
本研究では, トレーニングデータ分布の外部領域の観測において, 系統的に精度が低いことを示す。
これは統計的観点から予測されるが、我々の知る限りでは、シェープリー価値文学において体系的に扱われていない。
論文 参考訳(メタデータ) (2023-12-06T13:29:23Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - Is Shapley Explanation for a model unique? [0.0]
特徴の分布とShapley値の関係について検討する。
我々の評価では、特定の特徴に対するShapleyの値は、期待値だけでなく、分散のような他の瞬間にも依存する。
これはモデルの結果(Probability/Log-odds/binary decision、recept/rejectなど)によって異なり、従ってモデルアプリケーションによって異なります。
論文 参考訳(メタデータ) (2021-11-23T15:31:46Z) - Collective eXplainable AI: Explaining Cooperative Strategies and Agent
Contribution in Multiagent Reinforcement Learning with Shapley Values [68.8204255655161]
本研究は,シェープリー値を用いたマルチエージェントRLにおける協調戦略を説明するための新しい手法を提案する。
結果は、差別的でない意思決定、倫理的かつ責任あるAI由来の意思決定、公正な制約の下での政策決定に影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2021-10-04T10:28:57Z) - groupShapley: Efficient prediction explanation with Shapley values for
feature groups [2.320417845168326]
シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
論文 参考訳(メタデータ) (2021-06-23T08:16:14Z) - Causal Shapley Values: Exploiting Causal Knowledge to Explain Individual
Predictions of Complex Models [6.423239719448169]
シェープ値は、モデルの予測と平均ベースラインの差をモデルへの入力として使用する異なる特徴に関連付けるように設計されている。
これらの「因果」シャプリー値が、それらの望ましい性質を犠牲にすることなく、一般因果グラフに対してどのように導出できるかを示す。
論文 参考訳(メタデータ) (2020-11-03T11:11:36Z) - Predictive and Causal Implications of using Shapley Value for Model
Interpretation [6.744385328015561]
我々は、予測モデルと因果モデルの両方において重要な概念である、シェープ価値と条件独立の関係を確立した。
その結果,モデルから高いShapley値を持つ変数を排除しても必ずしも予測性能を損なうとは限らないことが示唆された。
さらに重要なことに、変数のShapley値は、関心の対象との因果関係を反映しない。
論文 参考訳(メタデータ) (2020-08-12T01:08:08Z) - Towards Efficient Data Valuation Based on the Shapley Value [65.4167993220998]
本稿では,Shapley値を用いたデータ評価の問題点について検討する。
Shapleyの値は、データ値の概念に対して多くのデシダータを満たすユニークなペイオフスキームを定義する。
本稿では,Shapley値を近似する効率的なアルゴリズムのレパートリーを提案する。
論文 参考訳(メタデータ) (2019-02-27T00:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。