論文の概要: Mathematically rigorous proofs for Shapley explanations
- arxiv url: http://arxiv.org/abs/2510.03281v1
- Date: Sun, 28 Sep 2025 18:26:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 19:16:49.461126
- Title: Mathematically rigorous proofs for Shapley explanations
- Title(参考訳): シェープリー説明の数学的厳密な証明
- Authors: David van Batenburg,
- Abstract要約: 数学的に厳密な観点から、Lundberg と Lee の2つの主要な結果について議論する。
最初の結果は、Youngの公理に基づく機械学習におけるShapley値の公理的評価である。
2つ目の結果は、重み付き線形回帰問題の一意解としてShapley値を記述することができることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning is becoming increasingly more important in today's world. It is therefore very important to provide understanding of the decision-making process of machine-learning models. A popular way to do this is by looking at the Shapley-Values of these models as introduced by Lundberg and Lee. In this thesis, we discuss the two main results by Lundberg and Lee from a mathematically rigorous standpoint and provide full proofs, which are not available from the original material. The first result of this thesis is an axiomatic characterization of the Shapley values in machine learning based on axioms by Young. We show that the Shapley values are the unique explanation to satisfy local accuracy, missingness, symmetry and consistency. Lundberg and Lee claim that the symmetry axiom is redundant for explanations. However, we provide a counterexample that shows the symmetry axiom is in fact essential. The second result shows that we can write the Shapley values as the unique solution to a weighted linear regression problem. This result is proven with the use of dimensionality reduction.
- Abstract(参考訳): 今日の世界では、機械学習がますます重要になっています。
したがって、機械学習モデルの意思決定プロセスを理解することが非常に重要である。
一般的な方法は、Lundberg氏とLee氏によって導入されたこれらのモデルのShapley-Valuesを見ることだ。
この論文では、数学的に厳密な立場から、Lundberg と Lee の2つの主要な結果について議論し、元の資料からは得られない完全な証明を提供する。
この論文の最初の結果は、ヤングの公理に基づく機械学習におけるShapley値の公理的評価である。
我々は,Shapley値が局所的精度,欠落度,対称性,一貫性を満足する唯一の説明であることを示す。
Lundberg と Lee は、対称性の公理は説明のために冗長であると主張している。
しかし、対称性の公理が実際に必須であることを示す反例を提供する。
2つ目の結果は、重み付き線形回帰問題の一意解としてShapley値を記述することができることを示している。
この結果は次元還元を用いて証明される。
関連論文リスト
- Error Analysis of Shapley Value-Based Model Explanations: An Informative Perspective [1.5186937600119894]
共有値属性(Shapley Value Attribution, SVA)は、モデルの出力に対する各機能の貢献を定量化する、説明可能なAI(XAI)メソッドとして、ますます人気が高まっている。
最近の研究によると、SVAを実装する既存の方法にはいくつかの欠点があり、バイアスや信頼性の低い説明がなされている。
本稿では,SVAの説明誤差を観察バイアスと構造バイアスの2つの構成要素に分解する,新しい誤差理論解析フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-21T04:07:52Z) - Tempered Calculus for ML: Application to Hyperbolic Model Embedding [70.61101116794549]
MLで使用されるほとんどの数学的歪みは、本質的に自然界において積分的である。
本稿では,これらの歪みを改善するための基礎的理論とツールを公表し,機械学習の要件に対処する。
我々は、最近MLで注目を集めた問題、すなわち、ハイパーボリック埋め込みを「チープ」で正確なエンコーディングで適用する方法を示す。
論文 参考訳(メタデータ) (2024-02-06T17:21:06Z) - Explaining the Model and Feature Dependencies by Decomposition of the
Shapley Value [3.0655581300025996]
共有値は、複雑なモデルをエンドユーザに説明するためのゴートメソッドの1つになっています。
欠点の1つは、いくつかの機能が欠けている場合、常にモデルの出力を必要とすることである。
しかし、これは非自明な選択をもたらす: 未知の機能に条件を付けるか、しないか?
本稿では,両説明を組み合わせ,選択の負担を軽減し,シェープリー値の説明力を高めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-19T12:20:23Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [72.50214227616728]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - SHAP-XRT: The Shapley Value Meets Conditional Independence Testing [21.794110108580746]
そこで本研究では,Shapleyに基づく説明手法と条件付き独立性テストが密接に関連していることを示す。
本研究では,条件付きランダム化テスト(CRT, Conditional Randomization Test)にインスパイアされたテスト手法であるSHAPley Explanation Randomization Test(SHAP-XRT)を紹介した。
我々は、Shapley値自体が大域(つまり全体)のnull仮説の期待$p$-値に上限を与えることを示した。
論文 参考訳(メタデータ) (2022-07-14T16:28:54Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Is Shapley Explanation for a model unique? [0.0]
特徴の分布とShapley値の関係について検討する。
我々の評価では、特定の特徴に対するShapleyの値は、期待値だけでなく、分散のような他の瞬間にも依存する。
これはモデルの結果(Probability/Log-odds/binary decision、recept/rejectなど)によって異なり、従ってモデルアプリケーションによって異なります。
論文 参考訳(メタデータ) (2021-11-23T15:31:46Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。