論文の概要: Refutation of Shapley Values for XAI -- Additional Evidence
- arxiv url: http://arxiv.org/abs/2310.00416v1
- Date: Sat, 30 Sep 2023 15:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 04:29:31.934818
- Title: Refutation of Shapley Values for XAI -- Additional Evidence
- Title(参考訳): XAIのShapley値の難読化 - さらなる証拠
- Authors: Xuanxiang Huang, Joao Marques-Silva
- Abstract要約: 最近の研究は、説明可能な人工知能(XAI)におけるシェープリー値の不適切さを実証している。
本稿では,特徴がブール値ではなく,複数のクラスを選択することができる分類器の族に対しても,Shapley値が不十分であることを示す。
- 参考スコア(独自算出の注目度): 4.483306836710804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work demonstrated the inadequacy of Shapley values for explainable
artificial intelligence (XAI). Although to disprove a theory a single
counterexample suffices, a possible criticism of earlier work is that the focus
was solely on Boolean classifiers. To address such possible criticism, this
paper demonstrates the inadequacy of Shapley values for families of classifiers
where features are not boolean, but also for families of classifiers for which
multiple classes can be picked. Furthermore, the paper shows that the features
changed in any minimal $l_0$ distance adversarial examples do not include
irrelevant features, thus offering further arguments regarding the inadequacy
of Shapley values for XAI.
- Abstract(参考訳): 近年の研究は、説明可能な人工知能(XAI)におけるシェープリー値の不適切さを実証している。
理論を否定するためには、一つの反例が十分であるが、初期の研究に対する批判は、焦点がブール分類にのみ焦点をあてることである。
このような批判に対処するため,本論文では,特徴がブール的でなく,複数のクラスを選択できる分類器の族に対して,シャプリー値が不十分であることを示す。
さらに本論文は, 最小の$l_0$距離逆例で変化した特徴が無関係な特徴を含まないことを示し, xai のシェープリー値の不備に関するさらなる議論を提供する。
関連論文リスト
- The Explanation Game -- Rekindled (Extended Version) [3.3766484312332303]
最近の研究は、説明可能なAI(XAI)におけるShapley値の現在の使用における重大な欠陥の存在を実証している。
本稿では,既存の欠陥を克服するSHAPスコアの新たな定義を提案する。
論文 参考訳(メタデータ) (2025-01-20T12:00:36Z) - SHAP scores fail pervasively even when Lipschitz succeeds [3.3766484312332303]
最近の研究は、計算されたSHAPスコアが完全に満足できない機械学習(ML)分類器の例を考案した。
SHAPスコアでどの程度問題が特定されたかは明らかでない。
本稿では,ブール分類器に対して,SHAPスコアを満足できないものとみなさなければならない事例が任意に多数存在することを示す。
論文 参考訳(メタデータ) (2024-12-18T14:02:15Z) - A Refutation of Shapley Values for Explainability [4.483306836710804]
最近の研究は、Shapley値が誤解を招く情報を提供するブール関数の存在を実証した。
本稿は, 様々な特徴に対して, 1つ以上の不適切な発見問題を示すブール関数が存在することを証明した。
論文 参考訳(メタデータ) (2023-09-06T14:34:18Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - The Inadequacy of Shapley Values for Explainability [0.685316573653194]
論文は、説明可能なAI(XAI)におけるShapley値の使用は、必ずしも予測のための特徴の相対的重要性に関する確実な誤解を招くだろうと論じている。
論文 参考訳(メタデータ) (2023-02-16T09:19:14Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - Smoothed Embeddings for Certified Few-Shot Learning [63.68667303948808]
我々はランダムな平滑化を数ショットの学習モデルに拡張し、入力を正規化された埋め込みにマッピングする。
この結果は、異なるデータセットの実験によって確認される。
論文 参考訳(メタデータ) (2022-02-02T18:19:04Z) - Hessian Eigenspectra of More Realistic Nonlinear Models [73.31363313577941]
私たちは、非線形モデルの広いファミリーのためのヘッセン固有スペクトルの言語的特徴付けを行います。
我々の分析は、より複雑な機械学習モデルで観察される多くの顕著な特徴の起源を特定するために一歩前進する。
論文 参考訳(メタデータ) (2021-03-02T06:59:52Z) - VAE Approximation Error: ELBO and Conditional Independence [78.72292013299868]
本稿では,ELBO目標とエンコーダ確率系列の選択の組み合わせによるVAE近似誤差を解析する。
より深いエンコーダネットワークを考慮すれば,ELBOサブセットを拡大することができず,各エラーを低減できないことを示す。
論文 参考訳(メタデータ) (2021-02-18T12:54:42Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。