論文の概要: Rigorous Feature Importance Scores based on Shapley Value and Banzhaf Index
- arxiv url: http://arxiv.org/abs/2508.11959v1
- Date: Sat, 16 Aug 2025 07:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.485992
- Title: Rigorous Feature Importance Scores based on Shapley Value and Banzhaf Index
- Title(参考訳): Shapley ValueとBanzhaf Indexに基づく厳密な特徴重要度スコア
- Authors: Xuanxiang Huang, Olivier Létoffé, Joao Marques-Silva,
- Abstract要約: 本稿では,Shapley値とBanzhaf指数に基づく2つの特徴重要度スコアを提案する。
我々は,特徴量の計算において非WAXp集合を考慮し,各特徴がAExを除いた場合の有効性を定量的に評価する。
- 参考スコア(独自算出の注目度): 3.3766484312332303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature attribution methods based on game theory are ubiquitous in the field of eXplainable Artificial Intelligence (XAI). Recent works proposed rigorous feature attribution using logic-based explanations, specifically targeting high-stakes uses of machine learning (ML) models. Typically, such works exploit weak abductive explanation (WAXp) as the characteristic function to assign importance to features. However, one possible downside is that the contribution of non-WAXp sets is neglected. In fact, non-WAXp sets can also convey important information, because of the relationship between formal explanations (XPs) and adversarial examples (AExs). Accordingly, this paper leverages Shapley value and Banzhaf index to devise two novel feature importance scores. We take into account non-WAXp sets when computing feature contribution, and the novel scores quantify how effective each feature is at excluding AExs. Furthermore, the paper identifies properties and studies the computational complexity of the proposed scores.
- Abstract(参考訳): ゲーム理論に基づく特徴属性法は,eXplainable Artificial Intelligence (XAI) の分野で広く普及している。
近年の研究では、論理に基づく説明を用いた厳密な特徴帰属を提案しており、特に機械学習(ML)モデルの高利用をターゲットとしている。
典型的には、そのような作品は特徴関数として弱い帰納的説明(WAXp)を利用して特徴に重大を割り当てる。
しかし、1つの欠点は、非WAXp集合の寄与が無視されることである。
実際、非WAXp集合は、形式的説明(XP)と敵例(AExs)の関係から重要な情報を伝えることもできる。
そこで本稿では,Shapley値とBanzhafインデックスを利用して,2つの新しい特徴重要点を考案する。
我々は,特徴量の計算において非WAXp集合を考慮し,各特徴がAExを除いた場合の有効性を定量的に評価する。
さらに,本論文は特性を同定し,提案したスコアの計算複雑性について検討する。
関連論文リスト
- Outcome-Based Online Reinforcement Learning: Algorithms and Fundamental Limits [58.63897489864948]
結果に基づくフィードバックによる強化学習は、根本的な課題に直面します。
適切なアクションにクレジットを割り当てるには?
本稿では,一般関数近似を用いたオンラインRLにおけるこの問題の包括的解析を行う。
論文 参考訳(メタデータ) (2025-05-26T17:44:08Z) - From SHAP Scores to Feature Importance Scores [4.8158930873043335]
本稿は,特徴属性と優先投票力の間には,重要な関係があることを示唆する。
XAIの重要度スコア(FIS)として、最も広く使用されるパワー指標のいくつかがどのように利用されるかは、まだ不明である。
論文 参考訳(メタデータ) (2024-05-20T03:52:41Z) - Anytime Approximate Formal Feature Attribution [33.195028992904355]
この決定が下されたとき、この決定に寄与した入力機能は何ですか?
ヒューリスティックなXAIアプローチは品質保証の欠如に悩まされ、しばしばシェープ値の近似を試みる。
最近の選択肢は、形式的特徴属性(FFA)と呼ばれるもので、その特徴を含む形式的帰納的説明(AXp)の断片として機能の重要性を定義するものである。
論文 参考訳(メタデータ) (2023-12-12T04:24:05Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - On Computing Relevant Features for Explaining NBCs [5.71097144710995]
XAI(Modelagnostic explainable AI)は誤った説明をすることができる。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,ネイブベイズ分類器(NBC)の関連機能集合の計算の複雑さについて検討し,実際は計算が容易であることを示す。
論文 参考訳(メタデータ) (2022-07-11T10:12:46Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Learning Aggregation Functions [78.47770735205134]
任意の濃度の集合に対する学習可能なアグリゲータであるLAF(Learning Aggregation Function)を紹介する。
半合成および実データを用いて,LAFが最先端の和(max-)分解アーキテクチャより優れていることを示す実験を報告する。
論文 参考訳(メタデータ) (2020-12-15T18:28:53Z) - On the Tractability of SHAP Explanations [40.829629145230356]
SHAPの説明は、説明可能なAIの一般的な機能帰属メカニズムである。
SHAP説明の計算の複雑さは、モデルが期待する値の計算の複雑さと同じであることを示す。
完全に分解された分布を超えて、SHAP説明の計算は、非常に単純な設定で既に難解であることが示される。
論文 参考訳(メタデータ) (2020-09-18T05:48:15Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。