論文の概要: Shapley values for feature selection: The good, the bad, and the axioms
- arxiv url: http://arxiv.org/abs/2102.10936v1
- Date: Mon, 22 Feb 2021 12:09:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 15:26:57.801174
- Title: Shapley values for feature selection: The good, the bad, and the axioms
- Title(参考訳): shapley value for features selection: the good, the bad, and the axioms
- Authors: Daniel Fryer and Inga Str\"umke and Hien Nguyen
- Abstract要約: Shapleyの価値を紹介し、機能選択ツールとしての最近の使用に注意を向けます。
そこで我々は,具体的シミュレーション環境において検討される洞察を数多く生み出す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Shapley value has become popular in the Explainable AI (XAI) literature,
thanks, to a large extent, to a solid theoretical foundation, including four
"favourable and fair" axioms for attribution in transferable utility games. The
Shapley value is provably the only solution concept satisfying these axioms. In
this paper, we introduce the Shapley value and draw attention to its recent
uses as a feature selection tool. We call into question this use of the Shapley
value, using simple, abstract "toy" counterexamples to illustrate that the
axioms may work against the goals of feature selection. From this, we develop a
number of insights that are then investigated in concrete simulation settings,
with a variety of Shapley value formulations, including SHapley Additive
exPlanations (SHAP) and Shapley Additive Global importancE (SAGE).
- Abstract(参考訳): 説明可能なAI(XAI)文学において、Shapleyの価値は、転送可能なユーティリティゲームにおいて帰属する4つの"favourable and fair"公理を含む、しっかりとした理論的基盤のおかげで、人気を博している。
Shapley値は、これらの公理を満たす唯一のソリューションコンセプトです。
本稿では,Shapleyの価値を紹介し,特徴選択ツールとしての最近の利用に注意を向ける。
私たちは、単純で抽象的な"toy"反例を用いて、Shapley値のこの使用に疑問を投げかけ、公理が特徴選択の目標に反する可能性があることを示す。
このことから、SHapley Additive exPlanations (SHAP) や Shapley Additive Global importancE (SAGE) など、Shapley値の様々な定式化を使用して、具体的なシミュレーション設定で調査される多くの洞察を開発しています。
関連論文リスト
- Shapley Pruning for Neural Network Compression [63.60286036508473]
この研究はShapley値近似を示し、ニューラルネットワーク圧縮の費用対効果の観点から比較分析を行う。
提案した規範的ランキングとその近似は、最先端のネットワーク圧縮を得る実用的な結果を示す。
論文 参考訳(メタデータ) (2024-07-19T11:42:54Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - WeightedSHAP: analyzing and improving Shapley based feature attributions [17.340091573913316]
共有価値(Shapley value)は、個々の特徴の影響を測定するための一般的なアプローチである。
WeightedSHAPを提案する。これはShapleyの価値を一般化し、データから直接フォーカスする限界貢献を学習する。
いくつかの実世界のデータセットにおいて、WeightedSHAPによって識別される影響のある特徴がモデルの予測を再カプセル化できることを示す。
論文 参考訳(メタデータ) (2022-09-27T14:34:07Z) - SHAP-XRT: The Shapley Value Meets Conditional Independence Testing [21.794110108580746]
そこで本研究では,Shapleyに基づく説明手法と条件付き独立性テストが密接に関連していることを示す。
本研究では,条件付きランダム化テスト(CRT, Conditional Randomization Test)にインスパイアされたテスト手法であるSHAPley Explanation Randomization Test(SHAP-XRT)を紹介した。
我々は、Shapley値自体が大域(つまり全体)のnull仮説の期待$p$-値に上限を与えることを示した。
論文 参考訳(メタデータ) (2022-07-14T16:28:54Z) - Faith-Shap: The Faithful Shapley Interaction Index [43.968337274203414]
シャプリー値の重要な魅力は、それらが非常に自然な公理的性質の集合を一意に満足していることである。
そこで,本研究では,標準個々のシャプリー公理の相互作用拡張を満たすために忠実な相互作用指標を求めることにより,一意に忠実なシャプリー相互作用指数が得られることを示す。
論文 参考訳(メタデータ) (2022-03-02T04:44:52Z) - The Shapley Value in Machine Learning [5.867472712737402]
機械学習におけるShapleyの価値の最も重要な応用について概説する。
シェープリー値の最も重要な限界について検討し、今後の研究の方向性を指摘する。
論文 参考訳(メタデータ) (2022-02-11T13:25:11Z) - Collective eXplainable AI: Explaining Cooperative Strategies and Agent
Contribution in Multiagent Reinforcement Learning with Shapley Values [68.8204255655161]
本研究は,シェープリー値を用いたマルチエージェントRLにおける協調戦略を説明するための新しい手法を提案する。
結果は、差別的でない意思決定、倫理的かつ責任あるAI由来の意思決定、公正な制約の下での政策決定に影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2021-10-04T10:28:57Z) - groupShapley: Efficient prediction explanation with Shapley values for
feature groups [2.320417845168326]
シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
論文 参考訳(メタデータ) (2021-06-23T08:16:14Z) - Explaining the data or explaining a model? Shapley values that uncover
non-linear dependencies [0.0]
本稿では,エネルギー距離相関,アフィン不変距離相関,およびヒルベルト・シュミット独立基準をシェープリー値特性関数として導入し,その利用を実証する。
論文 参考訳(メタデータ) (2020-07-12T15:04:59Z) - Towards Efficient Data Valuation Based on the Shapley Value [65.4167993220998]
本稿では,Shapley値を用いたデータ評価の問題点について検討する。
Shapleyの値は、データ値の概念に対して多くのデシダータを満たすユニークなペイオフスキームを定義する。
本稿では,Shapley値を近似する効率的なアルゴリズムのレパートリーを提案する。
論文 参考訳(メタデータ) (2019-02-27T00:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。