論文の概要: From SHAP Scores to Feature Importance Scores
- arxiv url: http://arxiv.org/abs/2405.11766v1
- Date: Mon, 20 May 2024 03:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 14:23:32.329927
- Title: From SHAP Scores to Feature Importance Scores
- Title(参考訳): SHAPスコアから機能重要スコアへ
- Authors: Olivier Letoffe, Xuanxiang Huang, Nicholas Asher, Joao Marques-Silva,
- Abstract要約: 本稿は,特徴属性と優先投票力の間には,重要な関係があることを示唆する。
XAIの重要度スコア(FIS)として、最も広く使用されるパワー指標のいくつかがどのように利用されるかは、まだ不明である。
- 参考スコア(独自算出の注目度): 4.8158930873043335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A central goal of eXplainable Artificial Intelligence (XAI) is to assign relative importance to the features of a Machine Learning (ML) model given some prediction. The importance of this task of explainability by feature attribution is illustrated by the ubiquitous recent use of tools such as SHAP and LIME. Unfortunately, the exact computation of feature attributions, using the game-theoretical foundation underlying SHAP and LIME, can yield manifestly unsatisfactory results, that tantamount to reporting misleading relative feature importance. Recent work targeted rigorous feature attribution, by studying axiomatic aggregations of features based on logic-based definitions of explanations by feature selection. This paper shows that there is an essential relationship between feature attribution and a priori voting power, and that those recently proposed axiomatic aggregations represent a few instantiations of the range of power indices studied in the past. Furthermore, it remains unclear how some of the most widely used power indices might be exploited as feature importance scores (FISs), i.e. the use of power indices in XAI, and which of these indices would be the best suited for the purposes of XAI by feature attribution, namely in terms of not producing results that could be deemed as unsatisfactory. This paper proposes novel desirable properties that FISs should exhibit. In addition, the paper also proposes novel FISs exhibiting the proposed properties. Finally, the paper conducts a rigorous analysis of the best-known power indices in terms of the proposed properties.
- Abstract(参考訳): eXplainable Artificial Intelligence(XAI)の中心的な目標は、予測された機械学習(ML)モデルの特徴に相対的な重要性を割り当てることである。
特徴属性によるこの説明可能性のタスクの重要性は、最近のSHAPやLIMEといったツールのユビキタスな利用によって説明されている。
残念なことに、SHAP と LIME の根底にあるゲーム理論の基礎を用いた機能属性の正確な計算は、明らかな不満足な結果をもたらす可能性がある。
最近の研究は、特徴選択による説明の論理的定義に基づく特徴の公理的集約を研究することによって、厳密な特徴属性を目標にしている。
本稿は,特徴属性と優先投票力の間には必須の相関関係があることを示し,最近提案された公理集約は,過去に研究されたパワー指標の範囲のいくつかを瞬時に表すものであることを示す。
さらに、最も広く使われているパワー指標のどれが特徴重要度スコア(FISs)として活用されるのか、すなわちXAIにおけるパワー指標の使用と、これら指標のどちらが特徴属性によるXAIの目的に最も適しているか、すなわち不満足な結果とは見なされないという点で、はっきりしない。
本稿では,FISが提示すべき新たな望ましい特性を提案する。
また,提案する特性を示す新しいFISも提案する。
最後に、提案した特性の観点から、最もよく知られたパワー指標の厳密な分析を行う。
関連論文リスト
- The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - The Distributional Uncertainty of the SHAP score in Explainable Machine Learning [2.655371341356892]
本稿では,未知の実体集団分布下でのSHAPスコアの推論の原理的枠組みを提案する。
我々は,この関数の最大値と最小値を求める基本的な問題について検討し,すべての特徴のSHAPスコアに対して厳密な範囲を決定できることを示した。
論文 参考訳(メタデータ) (2024-01-23T13:04:02Z) - Goodhart's Law Applies to NLP's Explanation Benchmarks [57.26445915212884]
ERASER(Comprehensiveness and sufficiency)メトリクスとEVAL-X(EVAL-X)メトリクスの2つのセットを批判的に検討する。
実験結果の予測や説明を変えることなく,モデル全体の包括性と充足率を劇的に向上させることができることを示す。
我々の結果は、現在のメトリクスが説明可能性の研究をガイドする能力に疑問を呈し、これらのメトリクスが正確に捉えるものを再評価する必要性を強調します。
論文 参考訳(メタデータ) (2023-08-28T03:03:03Z) - Feature Importance versus Feature Influence and What It Signifies for
Explainable AI [0.0]
特徴の重要性は、最先端のExplainable AIメソッドで使われている機能の影響と混同してはならない。
CIU(Contextual Importance and Utility)メソッドは、グローバルな特徴とローカルな特徴の統一的な定義を提供する。
論文 参考訳(メタデータ) (2023-08-07T13:46:18Z) - Explainability is NOT a Game [4.483306836710804]
XAIは、複雑な機械学習(ML)モデルを理解する上で、人間の意思決定を支援することを目的としている。
XAIの目印の1つは相対的な特徴の重要性の尺度であり、これはシェープリー値を用いて理論的に正当化される。
本稿は,最近の研究に基づいて,Shapley値が相対的特徴重要度を誤解を招く指標となる理由について,簡単な議論を行う。
論文 参考訳(メタデータ) (2023-06-27T09:32:49Z) - The Inadequacy of Shapley Values for Explainability [0.685316573653194]
論文は、説明可能なAI(XAI)におけるShapley値の使用は、必ずしも予測のための特徴の相対的重要性に関する確実な誤解を招くだろうと論じている。
論文 参考訳(メタデータ) (2023-02-16T09:19:14Z) - Inherent Inconsistencies of Feature Importance [6.02357145653815]
特徴重要度は、予測結果に対する個々の特徴の寄与にスコアを割り当てる手法である。
本稿では,特徴重要度スコアの異なる文脈間のコヒーレントな関係を確立するために設計された公理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-06-16T14:21:51Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。