論文の概要: Towards trustable SHAP scores
- arxiv url: http://arxiv.org/abs/2405.00076v2
- Date: Thu, 19 Dec 2024 02:29:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:28:18.844804
- Title: Towards trustable SHAP scores
- Title(参考訳): 信頼できるSHAPスコアを目指して
- Authors: Olivier Letoffe, Xuanxiang Huang, Joao Marques-Silva,
- Abstract要約: 本稿では, SHAPスコアをXAIのShapley値にまで拡張するために, SHAPスコアをどのように修正するかを検討する。
SHAPスコアの新たな定義は、不満足な結果が特定された既知のすべてのケースを避ける。
- 参考スコア(独自算出の注目度): 3.3766484312332303
- License:
- Abstract: SHAP scores represent the proposed use of the well-known Shapley values in eXplainable Artificial Intelligence (XAI). Recent work has shown that the exact computation of SHAP scores can produce unsatisfactory results. Concretely, for some ML models, SHAP scores will mislead with respect to relative feature influence. To address these limitations, recently proposed alternatives exploit different axiomatic aggregations, all of which are defined in terms of abductive explanations. However, the proposed axiomatic aggregations are not Shapley values. This paper investigates how SHAP scores can be modified so as to extend axiomatic aggregations to the case of Shapley values in XAI. More importantly, the proposed new definition of SHAP scores avoids all the known cases where unsatisfactory results have been identified. The paper also characterizes the complexity of computing the novel definition of SHAP scores, highlighting families of classifiers for which computing these scores is tractable. Furthermore, the paper proposes modifications to the existing implementations of SHAP scores. These modifications eliminate some of the known limitations of SHAP scores, and have negligible impact in terms of performance.
- Abstract(参考訳): SHAPスコアは、eXplainable Artificial Intelligence (XAI)でよく知られたShapley値の使用の提案を表している。
近年の研究では、SHAPスコアの正確な計算が不満足な結果をもたらすことが示されている。
具体的には、いくつかのMLモデルにおいて、SHAPスコアは相対的な特徴の影響に関して誤解を招く。
これらの制限に対処するために、最近提案された代替手段は、様々な公理的集約を利用しており、これら全ては帰納的説明の観点で定義される。
しかし、提案された公理的アグリゲーションはシェープリー値ではない。
本稿では, SHAPスコアをXAIのShapley値にまで拡張するために, SHAPスコアをどのように修正するかを検討する。
さらに重要なことは、SHAPスコアの新たな定義は、不満足な結果が特定された既知のすべてのケースを避けることである。
また、SHAPスコアの新たな定義の計算の複雑さを特徴付け、これらのスコアを計算可能な分類器のファミリーを強調した。
さらに,SHAPスコアの既存実装の変更についても提案する。
これらの修正は、SHAPスコアの既知のいくつかの制限を排除し、パフォーマンスの面では無視できる影響を持つ。
関連論文リスト
- The Explanation Game -- Rekindled (Extended Version) [3.3766484312332303]
最近の研究は、説明可能なAI(XAI)におけるShapley値の現在の使用における重大な欠陥の存在を実証している。
本稿では,既存の欠陥を克服するSHAPスコアの新たな定義を提案する。
論文 参考訳(メタデータ) (2025-01-20T12:00:36Z) - SHAP scores fail pervasively even when Lipschitz succeeds [3.3766484312332303]
最近の研究は、計算されたSHAPスコアが完全に満足できない機械学習(ML)分類器の例を考案した。
SHAPスコアでどの程度問題が特定されたかは明らかでない。
本稿では,ブール分類器に対して,SHAPスコアを満足できないものとみなさなければならない事例が任意に多数存在することを示す。
論文 参考訳(メタデータ) (2024-12-18T14:02:15Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - On the Tractability of SHAP Explanations under Markovian Distributions [0.1578515540930834]
SHAPフレームワークはMLモデルの局所的な説明可能性のための最も広く利用されているフレームワークの1つである。
その人気にもかかわらず、その正確な計算は非常に困難であることが知られ、様々な構成においてNP-Hardであることが証明されている。
近年の研究では、特定のモデルファミリーに対するSHAPスコアの計算に関して、肯定的な複雑性の結果が明らかにされている。
論文 参考訳(メタデータ) (2024-05-05T13:56:12Z) - Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - A $k$-additive Choquet integral-based approach to approximate the SHAP
values for local interpretability in machine learning [8.637110868126546]
本稿では,Shapley値に基づく機械学習モデルに対する解釈可能性の提供を目的とする。
Kernel SHAPと呼ばれるSHAPベースの手法は、計算労力を少なくしてそのような値を近似する効率的な戦略を採用する。
得られた結果から,提案手法ではSHAP値に近似するために属性の連立性に関する計算がより少ないことが確認された。
論文 参考訳(メタデータ) (2022-11-03T22:34:50Z) - Accelerating Shapley Explanation via Contributive Cooperator Selection [42.11059072201565]
DNNモデルのShapley説明を著しく高速化する新しい手法SHEARを提案する。
特徴連立の選定は、本提案のシェープリー連鎖則に従い、真真正値から絶対誤差を最小化する。
SHEARは、さまざまな評価指標で、最先端のベースラインメソッドを一貫して上回る。
論文 参考訳(メタデータ) (2022-06-17T03:24:45Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - AP-Loss for Accurate One-Stage Object Detection [49.13608882885456]
一段階の物体検出器は、分類損失と局所化損失を同時に最適化することによって訓練される。
前者は、多数のアンカーのため、非常に前景と後方のアンカーの不均衡に悩まされる。
本稿では,一段検知器の分類タスクをランキングタスクに置き換える新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-08-17T13:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。