論文の概要: On Correcting SHAP Scores
- arxiv url: http://arxiv.org/abs/2405.00076v1
- Date: Tue, 30 Apr 2024 10:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 17:35:46.975311
- Title: On Correcting SHAP Scores
- Title(参考訳): SHAPスコアの補正について
- Authors: Olivier Letoffe, Xuanxiang Huang, Joao Marques-Silva,
- Abstract要約: 本論文は, SHAPスコアの故障が, 先行研究で用いた特徴関数から生じることを論じる。
本稿では,新しい特徴関数の1つに代えて,SHAPツールの変更を提案する。
- 参考スコア(独自算出の注目度): 3.3766484312332303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work uncovered examples of classifiers for which SHAP scores yield misleading feature attributions. While such examples might be perceived as suggesting the inadequacy of Shapley values for explainability, this paper shows that the source of the identified shortcomings of SHAP scores resides elsewhere. Concretely, the paper makes the case that the failings of SHAP scores result from the characteristic functions used in earlier works. Furthermore, the paper identifies a number of properties that characteristic functions ought to respect, and proposes several novel characteristic functions, each exhibiting one or more of the desired properties. More importantly, some of the characteristic functions proposed in this paper are guaranteed not to exhibit any of the shortcomings uncovered by earlier work. The paper also investigates the impact of the new characteristic functions on the complexity of computing SHAP scores. Finally, the paper proposes modifications to the tool SHAP to use instead one of our novel characteristic functions, thereby eliminating some of the limitations reported for SHAP scores.
- Abstract(参考訳): 最近の研究は、SHAPスコアが誤帰的特徴属性をもたらす分類器の例を明らかにした。
このような例は、説明可能性に対するシェープリー値の不適切さを示唆していると考えられるが、本論文は、SHAPスコアの特定欠点の源泉がどこかに存在していることを示している。
具体的には, SHAP の故障は, 先行研究における特徴関数による結果であることを示す。
さらに, 特徴関数が尊重すべきいくつかの特性を同定し, それぞれが所望の特性の1つ以上の特徴関数を提示する, 新たな特徴関数を提案する。
さらに,本論文で提案されている特徴的機能は,先行研究で明らかになった欠点を示さないことが保証されている。
また,新しい特徴関数がSHAPスコアの計算複雑性に与える影響についても検討した。
最後に,新しい特徴関数の1つに代えてツールSHAPの変更を提案する。
関連論文リスト
- The Explanation Game -- Rekindled (Extended Version) [3.3766484312332303]
最近の研究は、説明可能なAI(XAI)におけるShapley値の現在の使用における重大な欠陥の存在を実証している。
本稿では,既存の欠陥を克服するSHAPスコアの新たな定義を提案する。
論文 参考訳(メタデータ) (2025-01-20T12:00:36Z) - SHAP scores fail pervasively even when Lipschitz succeeds [3.3766484312332303]
最近の研究は、計算されたSHAPスコアが完全に満足できない機械学習(ML)分類器の例を考案した。
SHAPスコアでどの程度問題が特定されたかは明らかでない。
本稿では,ブール分類器に対して,SHAPスコアを満足できないものとみなさなければならない事例が任意に多数存在することを示す。
論文 参考訳(メタデータ) (2024-12-18T14:02:15Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - On the Tractability of SHAP Explanations under Markovian Distributions [0.1578515540930834]
SHAPフレームワークはMLモデルの局所的な説明可能性のための最も広く利用されているフレームワークの1つである。
その人気にもかかわらず、その正確な計算は非常に困難であることが知られ、様々な構成においてNP-Hardであることが証明されている。
近年の研究では、特定のモデルファミリーに対するSHAPスコアの計算に関して、肯定的な複雑性の結果が明らかにされている。
論文 参考訳(メタデータ) (2024-05-05T13:56:12Z) - Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - A $k$-additive Choquet integral-based approach to approximate the SHAP
values for local interpretability in machine learning [8.637110868126546]
本稿では,Shapley値に基づく機械学習モデルに対する解釈可能性の提供を目的とする。
Kernel SHAPと呼ばれるSHAPベースの手法は、計算労力を少なくしてそのような値を近似する効率的な戦略を採用する。
得られた結果から,提案手法ではSHAP値に近似するために属性の連立性に関する計算がより少ないことが確認された。
論文 参考訳(メタデータ) (2022-11-03T22:34:50Z) - Accelerating Shapley Explanation via Contributive Cooperator Selection [42.11059072201565]
DNNモデルのShapley説明を著しく高速化する新しい手法SHEARを提案する。
特徴連立の選定は、本提案のシェープリー連鎖則に従い、真真正値から絶対誤差を最小化する。
SHEARは、さまざまな評価指標で、最先端のベースラインメソッドを一貫して上回る。
論文 参考訳(メタデータ) (2022-06-17T03:24:45Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - AP-Loss for Accurate One-Stage Object Detection [49.13608882885456]
一段階の物体検出器は、分類損失と局所化損失を同時に最適化することによって訓練される。
前者は、多数のアンカーのため、非常に前景と後方のアンカーの不均衡に悩まされる。
本稿では,一段検知器の分類タスクをランキングタスクに置き換える新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-08-17T13:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。