論文の概要: The Inadequacy of Shapley Values for Explainability
- arxiv url: http://arxiv.org/abs/2302.08160v1
- Date: Thu, 16 Feb 2023 09:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 14:25:31.593928
- Title: The Inadequacy of Shapley Values for Explainability
- Title(参考訳): 説明可能性に対するシェープリー値の不備
- Authors: Xuanxiang Huang, Joao Marques-Silva
- Abstract要約: 論文は、説明可能なAI(XAI)におけるShapley値の使用は、必ずしも予測のための特徴の相対的重要性に関する確実な誤解を招くだろうと論じている。
- 参考スコア(独自算出の注目度): 0.685316573653194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper develops a rigorous argument for why the use of Shapley values in
explainable AI (XAI) will necessarily yield provably misleading information
about the relative importance of features for predictions. Concretely, this
paper demonstrates that there exist classifiers, and associated predictions,
for which the relative importance of features determined by the Shapley values
will incorrectly assign more importance to features that are provably
irrelevant for the prediction, and less importance to features that are
provably relevant for the prediction. The paper also argues that, given recent
complexity results, the existence of efficient algorithms for the computation
of rigorous feature attribution values in the case of some restricted classes
of classifiers should be deemed unlikely at best.
- Abstract(参考訳): 本稿では、説明可能なAI(XAI)におけるShapley値の使用が、必ずしも予測のための特徴の相対的重要性に関する確実な誤解を招く理由について、厳密な議論を行う。
具体的には,シャプリー値によって決定される特徴の相対的重要性が,予測に明らかに無関係な特徴に不正確に与えられ,予測に有益である特徴の重要度が低下する,分類器や関連する予測が存在することを実証する。
この論文は、最近の複雑性の結果から、いくつかの制限された分類器のクラスの場合、厳密な特徴属性値の計算に効率的なアルゴリズムが存在することは、ほとんどありそうにないことを論じている。
関連論文リスト
- The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - From SHAP Scores to Feature Importance Scores [4.8158930873043335]
本稿は,特徴属性と優先投票力の間には,重要な関係があることを示唆する。
XAIの重要度スコア(FIS)として、最も広く使用されるパワー指標のいくつかがどのように利用されるかは、まだ不明である。
論文 参考訳(メタデータ) (2024-05-20T03:52:41Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Factor Importance Ranking and Selection using Total Indices [0.0]
要因の重要度は、特定の予測アルゴリズムに頼ることなく、機能の予測可能性を特徴づけるべきである。
本研究は,地球規模の感度分析から,予測可能性とソボ指標との等価性を示す。
ノイズデータから直接推定できる新しい一貫した推定器を導入する。
論文 参考訳(メタデータ) (2024-01-01T16:02:06Z) - A Refutation of Shapley Values for Explainability [4.483306836710804]
最近の研究は、Shapley値が誤解を招く情報を提供するブール関数の存在を実証した。
本稿は, 様々な特徴に対して, 1つ以上の不適切な発見問題を示すブール関数が存在することを証明した。
論文 参考訳(メタデータ) (2023-09-06T14:34:18Z) - Explainability is NOT a Game [4.483306836710804]
XAIは、複雑な機械学習(ML)モデルを理解する上で、人間の意思決定を支援することを目的としている。
XAIの目印の1つは相対的な特徴の重要性の尺度であり、これはシェープリー値を用いて理論的に正当化される。
本稿は,最近の研究に基づいて,Shapley値が相対的特徴重要度を誤解を招く指標となる理由について,簡単な議論を行う。
論文 参考訳(メタデータ) (2023-06-27T09:32:49Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Inferring feature importance with uncertainties in high-dimensional data [0.0]
推定器における不確実性を含む個々の特徴の重要性を推定するためのShapley値に基づくフレームワークを提案する。
我々は最近発表されたSAGEの機能重要度尺度に基づいて構築し、木モデルの再サンプリングなしに推定できるサブSAGEを導入する。
論文 参考訳(メタデータ) (2021-09-02T11:57:34Z) - Don't Just Blame Over-parametrization for Over-confidence: Theoretical
Analysis of Calibration in Binary Classification [58.03725169462616]
理論上は、過剰パラメトリゼーションは過剰信頼の唯一の理由ではない。
我々は、ロジスティック回帰は本質的に信頼過剰であり、実現可能で、非パラメータな設定であることを示す。
おそらく驚くことに、過剰な信頼が常にそうであるとは限らないことも示します。
論文 参考訳(メタデータ) (2021-02-15T21:38:09Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。