論文の概要: Problems with Shapley-value-based explanations as feature importance
measures
- arxiv url: http://arxiv.org/abs/2002.11097v2
- Date: Tue, 30 Jun 2020 14:38:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:27:24.201840
- Title: Problems with Shapley-value-based explanations as feature importance
measures
- Title(参考訳): 特徴重要度尺度としてのシェープ値に基づく説明の問題
- Authors: I. Elizabeth Kumar, Suresh Venkatasubramanian, Carlos Scheidegger,
Sorelle Friedler
- Abstract要約: 機能の重要性のゲーム理論の定式化は、機械学習モデルを"説明"する方法として人気を集めている。
特徴量としてシェープ値が用いられる場合に数学的な問題が生じることを示す。
我々は、Shapley値が人間中心の説明可能性の目標に合った説明を提供していないと論じる。
- 参考スコア(独自算出の注目度): 12.08945475767566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Game-theoretic formulations of feature importance have become popular as a
way to "explain" machine learning models. These methods define a cooperative
game between the features of a model and distribute influence among these input
elements using some form of the game's unique Shapley values. Justification for
these methods rests on two pillars: their desirable mathematical properties,
and their applicability to specific motivations for explanations. We show that
mathematical problems arise when Shapley values are used for feature importance
and that the solutions to mitigate these necessarily induce further complexity,
such as the need for causal reasoning. We also draw on additional literature to
argue that Shapley values do not provide explanations which suit human-centric
goals of explainability.
- Abstract(参考訳): ゲーム理論による特徴量定式化は、機械学習モデルを「説明」する方法として人気を集めている。
これらの方法は、モデルの特徴間の協調ゲームを定義し、ゲーム固有のシェープリー値の何らかの形式を用いて、これらの入力要素間で影響を分配する。
これらの方法の正当化は、それらの望ましい数学的性質と、説明の特定の動機に対する適用性という2つの柱にかかっている。
シャプリー値が特徴的重要性に使用される際に数学的な問題が生じることを示し、これらを緩和する解決策は因果推論の必要性など、必然的にさらなる複雑さを引き起こすことを示した。
また、Shapleyの価値観は人間中心の説明可能性の目標に合った説明を提供していないと主張する文献も追加する。
関連論文リスト
- Sufficient and Necessary Explanations (and What Lies in Between) [6.9035001722324685]
本稿では,汎用機械学習モデルにおける特徴重要度に関する2つの正確な概念について考察する。
本稿では,必要十分軸に沿って連続体を探索することによって,これらの制限を回避することの重要性の統一概念を提案する。
論文 参考訳(メタデータ) (2024-09-30T15:50:57Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Model Explanations via the Axiomatic Causal Lens [9.915489218010952]
そこで本研究では,すべての原因の集合を特徴重みに集約する3つの説明尺度を提案する。
最初の尺度は、チョックラーとハルパーンの因果責任の概念の自然な適応である。
我々は、ブラックボックスモデル説明のためのShapley-ShubikとBanzhafの指標を計算するための新しい手法を導出するために、我々のアプローチを拡張した。
論文 参考訳(メタデータ) (2021-09-08T19:33:52Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - Causal Shapley Values: Exploiting Causal Knowledge to Explain Individual
Predictions of Complex Models [6.423239719448169]
シェープ値は、モデルの予測と平均ベースラインの差をモデルへの入力として使用する異なる特徴に関連付けるように設計されている。
これらの「因果」シャプリー値が、それらの望ましい性質を犠牲にすることなく、一般因果グラフに対してどのように導出できるかを示す。
論文 参考訳(メタデータ) (2020-11-03T11:11:36Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Explaining the data or explaining a model? Shapley values that uncover
non-linear dependencies [0.0]
本稿では,エネルギー距離相関,アフィン不変距離相関,およびヒルベルト・シュミット独立基準をシェープリー値特性関数として導入し,その利用を実証する。
論文 参考訳(メタデータ) (2020-07-12T15:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。