論文の概要: A Refutation of Shapley Values for Explainability
- arxiv url: http://arxiv.org/abs/2309.03041v2
- Date: Tue, 13 Feb 2024 07:35:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 19:31:03.749846
- Title: A Refutation of Shapley Values for Explainability
- Title(参考訳): 説明可能性に対するシャプリー値の反論
- Authors: Xuanxiang Huang, Joao Marques-Silva
- Abstract要約: 最近の研究は、Shapley値が誤解を招く情報を提供するブール関数の存在を実証した。
本稿は, 様々な特徴に対して, 1つ以上の不適切な発見問題を示すブール関数が存在することを証明した。
- 参考スコア(独自算出の注目度): 4.483306836710804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work demonstrated the existence of Boolean functions for which Shapley
values provide misleading information about the relative importance of features
in rule-based explanations. Such misleading information was broadly categorized
into a number of possible issues. Each of those issues relates with features
being relevant or irrelevant for a prediction, and all are significant
regarding the inadequacy of Shapley values for rule-based explainability. This
earlier work devised a brute-force approach to identify Boolean functions,
defined on small numbers of features, and also associated instances, which
displayed such inadequacy-revealing issues, and so served as evidence to the
inadequacy of Shapley values for rule-based explainability. However, an
outstanding question is how frequently such inadequacy-revealing issues can
occur for Boolean functions with arbitrary large numbers of features. It is
plain that a brute-force approach would be unlikely to provide insights on how
to tackle this question. This paper answers the above question by proving that,
for any number of features, there exist Boolean functions that exhibit one or
more inadequacy-revealing issues, thereby contributing decisive arguments
against the use of Shapley values as the theoretical underpinning of
feature-attribution methods in explainability.
- Abstract(参考訳): 最近の研究は、Shapley値がルールに基づく説明における特徴の相対的重要性に関する誤解を招く情報を提供するブール関数の存在を実証した。
このような誤解を招く情報は、様々な問題に大別された。
これらの問題はそれぞれ、予測に関係または関係のない特徴に関係しており、ルールベースの説明可能性に対するシェープリー値の不備に関して重要な問題である。
この初期の研究は、少数の特徴に基づいて定義されたブール関数と関連するインスタンスを識別するブルートフォースのアプローチを考案し、そのような不適切な発見問題を示し、規則に基づく説明可能性に対するシェープリー値の不適切性の証拠として役立った。
しかし、顕著な疑問は、任意の数の特徴を持つブール関数に対して、そのような不適切な発見問題の発生頻度である。
力ずくのアプローチが、この問題に取り組む方法に関する洞察を提供する可能性は低いことは明らかです。
本稿は, 種々の特徴に対して, 1つ以上の不適切な発見問題を示すブール関数が存在することを証明し, 特徴帰属法の理論的根拠として, シェープリー値の使用に対する決定的な議論を提起する。
関連論文リスト
- Refutation of Shapley Values for XAI -- Additional Evidence [4.483306836710804]
最近の研究は、説明可能な人工知能(XAI)におけるシェープリー値の不適切さを実証している。
本稿では,特徴がブール値ではなく,複数のクラスを選択することができる分類器の族に対しても,Shapley値が不十分であることを示す。
論文 参考訳(メタデータ) (2023-09-30T15:44:06Z) - The Inadequacy of Shapley Values for Explainability [0.685316573653194]
論文は、説明可能なAI(XAI)におけるShapley値の使用は、必ずしも予測のための特徴の相対的重要性に関する確実な誤解を招くだろうと論じている。
論文 参考訳(メタデータ) (2023-02-16T09:19:14Z) - Inference on Strongly Identified Functionals of Weakly Identified
Functions [71.42652863687117]
本研究では,ニュアンス関数が存在しない場合でも,関数を強く識別するための新しい条件について検討する。
本稿では,プライマリおよびデバイアスのニュアンス関数に対するペナル化ミニマックス推定器を提案する。
論文 参考訳(メタデータ) (2022-08-17T13:38:31Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - groupShapley: Efficient prediction explanation with Shapley values for
feature groups [2.320417845168326]
シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
論文 参考訳(メタデータ) (2021-06-23T08:16:14Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Shapley explainability on the data manifold [10.439136407307048]
Shapleyの説明可能性の一般的な実装は、モデルの特徴が非相関である、という断定不能な仮定を下している。
生成的モデリングに基づく1つのソリューションは、データ計算への柔軟なアクセスを提供する。
もうひとつはShapleyの価値関数を直接学習し、柔軟性を犠牲にしてパフォーマンスと安定性を提供します。
論文 参考訳(メタデータ) (2020-06-01T21:20:04Z) - Problems with Shapley-value-based explanations as feature importance
measures [12.08945475767566]
機能の重要性のゲーム理論の定式化は、機械学習モデルを"説明"する方法として人気を集めている。
特徴量としてシェープ値が用いられる場合に数学的な問題が生じることを示す。
我々は、Shapley値が人間中心の説明可能性の目標に合った説明を提供していないと論じる。
論文 参考訳(メタデータ) (2020-02-25T18:51:14Z) - Contextual Linear Bandits under Noisy Features: Towards Bayesian Oracles [65.9694455739978]
特徴不確実性の下での文脈線形帯域問題について検討する。
本分析により, 最適仮説は, 雑音特性に応じて, 基礎となる実現可能性関数から著しく逸脱しうることが明らかとなった。
これは、古典的アプローチが非自明な後悔境界を保証できないことを意味する。
論文 参考訳(メタデータ) (2017-03-03T21:39:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。