論文の概要: Beyond Shapley Values: Cooperative Games for the Interpretation of Machine Learning Models
- arxiv url: http://arxiv.org/abs/2506.13900v1
- Date: Mon, 16 Jun 2025 18:22:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.202201
- Title: Beyond Shapley Values: Cooperative Games for the Interpretation of Machine Learning Models
- Title(参考訳): 共有価値を超えて: 機械学習モデルの解釈のための協調ゲーム
- Authors: Marouane Il Idrissi, Agathe Fernandes Machado, Arthur Charpentier,
- Abstract要約: 我々は、協調ゲーム理論を解釈可能性の観点から再考し、そのツールのより広くより原則化された利用を論じる。
We highlight two general general family of efficient allocations, the Weber and Harsanyi set, which extends beyond Shapley values。
本稿では,これらのアロケーション方式の概要を述べるとともに,値関数とアグリゲーション規則の区別を明確にし,信頼性と理論的な特徴属性を構築するための3段階の青写真を紹介する。
- 参考スコア(独自算出の注目度): 0.3749861135832073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cooperative game theory has become a cornerstone of post-hoc interpretability in machine learning, largely through the use of Shapley values. Yet, despite their widespread adoption, Shapley-based methods often rest on axiomatic justifications whose relevance to feature attribution remains debatable. In this paper, we revisit cooperative game theory from an interpretability perspective and argue for a broader and more principled use of its tools. We highlight two general families of efficient allocations, the Weber and Harsanyi sets, that extend beyond Shapley values and offer richer interpretative flexibility. We present an accessible overview of these allocation schemes, clarify the distinction between value functions and aggregation rules, and introduce a three-step blueprint for constructing reliable and theoretically-grounded feature attributions. Our goal is to move beyond fixed axioms and provide the XAI community with a coherent framework to design attribution methods that are both meaningful and robust to shifting methodological trends.
- Abstract(参考訳): 協調ゲーム理論は、主にシェープリー値を用いて、機械学習におけるポストホック解釈可能性の基礎となっている。
しかし、広く採用されているにもかかわらず、シェープリーに基づく手法は、しばしば、特徴帰属との関連性が議論の余地のある公理的正当化に依存している。
本稿では,協調ゲーム理論を解釈可能性の観点から再考し,そのツールのより広範かつ原則的な利用を論じる。
Weber と Harsanyi セットは Shapley の値を超えて拡張され、よりリッチな解釈的柔軟性を提供する。
本稿では,これらのアロケーション方式の概要を述べるとともに,値関数とアグリゲーション規則の区別を明確にし,信頼性と理論的な特徴属性を構築するための3段階の青写真を紹介する。
我々のゴールは、固定された公理を超えて、XAIコミュニティに、方法論的傾向を変える上で有意義かつ堅牢な帰属的手法を設計するための一貫性のあるフレームワークを提供することです。
関連論文リスト
- Unveil Sources of Uncertainty: Feature Contribution to Conformal Prediction Intervals [0.3495246564946556]
共形予測(CP)に基づく新しいモデルに依存しない不確実性属性(UA)法を提案する。
我々は,CP間隔特性-幅や境界条件-を値関数として定義し,入力特徴に対する予測不確かさを属性とする協調ゲームを定義する。
人工ベンチマークと実世界のデータセットを用いた実験は、我々のアプローチの実用的有用性と解釈的深さを実証する。
論文 参考訳(メタデータ) (2025-05-19T13:49:05Z) - From Abstract to Actionable: Pairwise Shapley Values for Explainable AI [0.8192907805418583]
提案するPairwise Shapley Valuesは,特徴属性を明示的,人間関連性のある比較に基礎を置く新しいフレームワークである。
本手法では,一値命令と組み合わせたペアワイズ参照選択を導入し,直観的,モデルに依存しない説明を行う。
Pairwise Shapley Valuesは多種多様な回帰・分類シナリオにおける解釈可能性を高めることを実証する。
論文 参考訳(メタデータ) (2025-02-18T04:20:18Z) - Regularized Conventions: Equilibrium Computation as a Model of Pragmatic
Reasoning [72.21876989058858]
本稿では,信号ゲームの正規化平衡を探索することにより,発話を生成・理解する実用的な言語理解のモデルを提案する。
このモデルでは、話者とリスナーは文脈的に適切な発話を探索し、ゲーム理論の最適規則に近づき、共有された'デフォルト'セマンティクスに近い意味のマッピングを意味づける。
論文 参考訳(メタデータ) (2023-11-16T09:42:36Z) - Networked Communication for Decentralised Agents in Mean-Field Games [59.01527054553122]
平均フィールドゲームフレームワークにネットワーク通信を導入する。
当社のアーキテクチャは、中央集権型と独立した学習ケースの双方で保証されていることを証明しています。
ネットワーク化されたアプローチは、障害の更新や人口規模の変化に対する堅牢性という点において、両方の選択肢に対して大きなメリットがあることが示されています。
論文 参考訳(メタデータ) (2023-06-05T10:45:39Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - RKHS-SHAP: Shapley Values for Kernel Methods [17.52161019964009]
本稿では,エフェクトインターベンショナル値とエフェクトオブザーショナルシェープ値の両方を効率的に計算できるカーネルマシンの属性法を提案する。
提案手法は局所的な摂動に対して頑健であることを示す。
論文 参考訳(メタデータ) (2021-10-18T10:35:36Z) - Collective eXplainable AI: Explaining Cooperative Strategies and Agent
Contribution in Multiagent Reinforcement Learning with Shapley Values [68.8204255655161]
本研究は,シェープリー値を用いたマルチエージェントRLにおける協調戦略を説明するための新しい手法を提案する。
結果は、差別的でない意思決定、倫理的かつ責任あるAI由来の意思決定、公正な制約の下での政策決定に影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2021-10-04T10:28:57Z) - Unified Shapley Framework to Explain Prediction Drift [0.0]
この問題に対処するための公理的に正当化された方法として,GroupShapley と GroupIG を提案する。
そのために、Shapley値に基づいた現在の機能/データの重要度を、分散比較の本質的に問題として再設定します。
分布差の特定の望ましい特性を公理化し、それらを選択することの意味を研究する。
論文 参考訳(メタデータ) (2021-02-15T21:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。