論文の概要: SHAP scores fail pervasively even when Lipschitz succeeds
- arxiv url: http://arxiv.org/abs/2412.13866v1
- Date: Wed, 18 Dec 2024 14:02:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:48:52.728880
- Title: SHAP scores fail pervasively even when Lipschitz succeeds
- Title(参考訳): SHAPスコアはリプシッツが成功しても広範に失敗する
- Authors: Olivier Letoffe, Xuanxiang Huang, Joao Marques-Silva,
- Abstract要約: 最近の研究は、計算されたSHAPスコアが完全に満足できない機械学習(ML)分類器の例を考案した。
SHAPスコアでどの程度問題が特定されたかは明らかでない。
本稿では,ブール分類器に対して,SHAPスコアを満足できないものとみなさなければならない事例が任意に多数存在することを示す。
- 参考スコア(独自算出の注目度): 3.3766484312332303
- License:
- Abstract: The ubiquitous use of Shapley values in eXplainable AI (XAI) has been triggered by the tool SHAP, and as a result are commonly referred to as SHAP scores. Recent work devised examples of machine learning (ML) classifiers for which the computed SHAP scores are thoroughly unsatisfactory, by allowing human decision-makers to be misled. Nevertheless, such examples could be perceived as somewhat artificial, since the selected classes must be interpreted as numeric. Furthermore, it was unclear how general were the issues identified with SHAP scores. This paper answers these criticisms. First, the paper shows that for Boolean classifiers there are arbitrarily many examples for which the SHAP scores must be deemed unsatisfactory. Second, the paper shows that the issues with SHAP scores are also observed in the case of regression models. In addition, the paper studies the class of regression models that respect Lipschitz continuity, a measure of a function's rate of change that finds important recent uses in ML, including model robustness. Concretely, the paper shows that the issues with SHAP scores occur even for regression models that respect Lipschitz continuity. Finally, the paper shows that the same issues are guaranteed to exist for arbitrarily differentiable regression models.
- Abstract(参考訳): eXplainable AI(XAI)におけるShapley値のユビキタス使用は、ツールSHAPによって引き起こされ、その結果、一般的にSHAPスコアと呼ばれる。
最近の研究は、人間の意思決定者を誤解させることで、計算されたSHAPスコアが完全に満足できない機械学習(ML)分類器の例を考案した。
それでも、選択されたクラスは数値として解釈されなければならないので、そのような例は幾らか人工的なものと見なすことができる。
さらに、SHAPスコアで特定された問題がどの程度一般的であったかは明らかでない。
本稿ではこれらの批判に答える。
第一に、ブール分類器には、SHAPスコアが満足できないとみなさなければならない、任意に多くの例が存在することを示す。
第2に,回帰モデルではSHAPスコアの問題も観察されている。
さらに,リプシッツ連続性(Lipschitz continuity)を尊重する回帰モデルのクラスについて検討した。
具体的には,リプシッツ連続性を尊重する回帰モデルにおいてもSHAPスコアの問題が発生することを示す。
最後に、任意に微分可能な回帰モデルに対して、同じ問題が必ず存在することを示す。
関連論文リスト
- Analysis of Zero Day Attack Detection Using MLP and XAI [0.0]
本稿では、侵入検知システム(IDS)を構築するための機械学習(ML)とディープラーニング(DL)に基づくアプローチについて分析する。
KDD99データセットは、ゼロデイ攻撃を検出するために、すべてのデータセットの中で最も研究されている。
ベースラインMLモデル,重み付きMLモデル,重み付きMLモデル,重み付きMLモデルを含む,KDD99データセット上でトレーニングされた4層パーセプトロン(MLP)の性能を評価する。
論文 参考訳(メタデータ) (2025-01-28T02:20:34Z) - The Explanation Game -- Rekindled (Extended Version) [3.3766484312332303]
最近の研究は、説明可能なAI(XAI)におけるShapley値の現在の使用における重大な欠陥の存在を実証している。
本稿では,既存の欠陥を克服するSHAPスコアの新たな定義を提案する。
論文 参考訳(メタデータ) (2025-01-20T12:00:36Z) - Towards trustable SHAP scores [3.3766484312332303]
本稿では, SHAPスコアをXAIのShapley値にまで拡張するために, SHAPスコアをどのように修正するかを検討する。
SHAPスコアの新たな定義は、不満足な結果が特定された既知のすべてのケースを避ける。
論文 参考訳(メタデータ) (2024-04-30T10:39:20Z) - Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Benign-Overfitting in Conditional Average Treatment Effect Prediction
with Linear Regression [14.493176427999028]
線形回帰モデルを用いて条件平均処理効果(CATE)の予測における良性過剰適合理論について検討した。
一方,IPW-learnerは確率スコアが分かっていればリスクをゼロに収束させるが,T-learnerはランダムな割り当て以外の一貫性を達成できないことを示す。
論文 参考訳(メタデータ) (2022-02-10T18:51:52Z) - Smoothed Embeddings for Certified Few-Shot Learning [63.68667303948808]
我々はランダムな平滑化を数ショットの学習モデルに拡張し、入力を正規化された埋め込みにマッピングする。
この結果は、異なるデータセットの実験によって確認される。
論文 参考訳(メタデータ) (2022-02-02T18:19:04Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Positive-Congruent Training: Towards Regression-Free Model Updates [87.25247195148187]
画像分類において、サンプルワイドの不整合は「負のフリップ」として現れる
新しいモデルは、古い(参照)モデルによって正しく分類されたテストサンプルの出力を誤って予測する。
そこで本研究では,PC トレーニングのための簡易なアプローチである Focal Distillation を提案する。
論文 参考訳(メタデータ) (2020-11-18T09:00:44Z) - Censored Quantile Regression Forest [81.9098291337097]
我々は、検閲に適応し、データが検閲を示さないときに量子スコアをもたらす新しい推定方程式を開発する。
提案手法は, パラメトリックなモデリング仮定を使わずに, 時間単位の定量を推定することができる。
論文 参考訳(メタデータ) (2020-01-08T23:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。