論文の概要: Refutation of Shapley Values for XAI -- Additional Evidence
- arxiv url: http://arxiv.org/abs/2310.00416v1
- Date: Sat, 30 Sep 2023 15:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 04:29:31.934818
- Title: Refutation of Shapley Values for XAI -- Additional Evidence
- Title(参考訳): XAIのShapley値の難読化 - さらなる証拠
- Authors: Xuanxiang Huang, Joao Marques-Silva
- Abstract要約: 最近の研究は、説明可能な人工知能(XAI)におけるシェープリー値の不適切さを実証している。
本稿では,特徴がブール値ではなく,複数のクラスを選択することができる分類器の族に対しても,Shapley値が不十分であることを示す。
- 参考スコア(独自算出の注目度): 4.483306836710804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work demonstrated the inadequacy of Shapley values for explainable
artificial intelligence (XAI). Although to disprove a theory a single
counterexample suffices, a possible criticism of earlier work is that the focus
was solely on Boolean classifiers. To address such possible criticism, this
paper demonstrates the inadequacy of Shapley values for families of classifiers
where features are not boolean, but also for families of classifiers for which
multiple classes can be picked. Furthermore, the paper shows that the features
changed in any minimal $l_0$ distance adversarial examples do not include
irrelevant features, thus offering further arguments regarding the inadequacy
of Shapley values for XAI.
- Abstract(参考訳): 近年の研究は、説明可能な人工知能(XAI)におけるシェープリー値の不適切さを実証している。
理論を否定するためには、一つの反例が十分であるが、初期の研究に対する批判は、焦点がブール分類にのみ焦点をあてることである。
このような批判に対処するため,本論文では,特徴がブール的でなく,複数のクラスを選択できる分類器の族に対して,シャプリー値が不十分であることを示す。
さらに本論文は, 最小の$l_0$距離逆例で変化した特徴が無関係な特徴を含まないことを示し, xai のシェープリー値の不備に関するさらなる議論を提供する。
関連論文リスト
- On Correcting SHAP Scores [3.3766484312332303]
本論文は, SHAPスコアの故障が, 先行研究で用いた特徴関数から生じることを論じる。
本稿では,新しい特徴関数の1つに代えて,SHAPツールの変更を提案する。
論文 参考訳(メタデータ) (2024-04-30T10:39:20Z) - A Refutation of Shapley Values for Explainability [4.483306836710804]
最近の研究は、Shapley値が誤解を招く情報を提供するブール関数の存在を実証した。
本稿は, 様々な特徴に対して, 1つ以上の不適切な発見問題を示すブール関数が存在することを証明した。
論文 参考訳(メタデータ) (2023-09-06T14:34:18Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - The Inadequacy of Shapley Values for Explainability [0.685316573653194]
論文は、説明可能なAI(XAI)におけるShapley値の使用は、必ずしも予測のための特徴の相対的重要性に関する確実な誤解を招くだろうと論じている。
論文 参考訳(メタデータ) (2023-02-16T09:19:14Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - Smoothed Embeddings for Certified Few-Shot Learning [63.68667303948808]
我々はランダムな平滑化を数ショットの学習モデルに拡張し、入力を正規化された埋め込みにマッピングする。
この結果は、異なるデータセットの実験によって確認される。
論文 参考訳(メタデータ) (2022-02-02T18:19:04Z) - Hessian Eigenspectra of More Realistic Nonlinear Models [73.31363313577941]
私たちは、非線形モデルの広いファミリーのためのヘッセン固有スペクトルの言語的特徴付けを行います。
我々の分析は、より複雑な機械学習モデルで観察される多くの顕著な特徴の起源を特定するために一歩前進する。
論文 参考訳(メタデータ) (2021-03-02T06:59:52Z) - VAE Approximation Error: ELBO and Conditional Independence [78.72292013299868]
本稿では,ELBO目標とエンコーダ確率系列の選択の組み合わせによるVAE近似誤差を解析する。
より深いエンコーダネットワークを考慮すれば,ELBOサブセットを拡大することができず,各エラーを低減できないことを示す。
論文 参考訳(メタデータ) (2021-02-18T12:54:42Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Predictive and Causal Implications of using Shapley Value for Model
Interpretation [6.744385328015561]
我々は、予測モデルと因果モデルの両方において重要な概念である、シェープ価値と条件独立の関係を確立した。
その結果,モデルから高いShapley値を持つ変数を排除しても必ずしも予測性能を損なうとは限らないことが示唆された。
さらに重要なことに、変数のShapley値は、関心の対象との因果関係を反映しない。
論文 参考訳(メタデータ) (2020-08-12T01:08:08Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。