論文の概要: Multicollinearity Correction and Combined Feature Effect in Shapley
Values
- arxiv url: http://arxiv.org/abs/2011.01661v1
- Date: Tue, 3 Nov 2020 12:28:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 04:45:14.127583
- Title: Multicollinearity Correction and Combined Feature Effect in Shapley
Values
- Title(参考訳): 共有値における多重線形補正と複合特徴効果
- Authors: Indranil Basu and Subhadip Maji
- Abstract要約: 共有値(Shapley value)は、特定の行に対する機能の重要性を表す。
我々は,Shapley値と相関した特徴量を計算する統一的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model interpretability is one of the most intriguing problems in most of the
Machine Learning models, particularly for those that are mathematically
sophisticated. Computing Shapley Values are arguably the best approach so far
to find the importance of each feature in a model, at the row level. In other
words, Shapley values represent the importance of a feature for a particular
row, especially for Classification or Regression problems. One of the biggest
limitations of Shapley vales is that, Shapley value calculations assume all the
features are uncorrelated (independent of each other), this assumption is often
incorrect. To address this problem, we present a unified framework to calculate
Shapley values with correlated features. To be more specific, we do an
adjustment (Matrix formulation) of the features while calculating Independent
Shapley values for the rows. Moreover, we have given a Mathematical proof
against the said adjustments. With these adjustments, Shapley values
(Importance) for the features become independent of the correlations existing
between them. We have also enhanced this adjustment concept for more than
features. As the Shapley values are additive, to calculate combined effect of
two features, we just have to add their individual Shapley values. This is
again not right if one or more of the features (used in the combination) are
correlated with the other features (not in the combination). We have addressed
this problem also by extending the correlation adjustment for one feature to
multiple features in the said combination for which Shapley values are
determined. Our implementation of this method proves that our method is
computationally efficient also, compared to original Shapley method.
- Abstract(参考訳): モデル解釈性は、多くの機械学習モデルにおいて最も興味深い問題の一つであり、特に数学的に洗練された問題である。
共有価値の計算は、モデル内の各機能の重要性を行レベルで見つけるのに、これまでで最高のアプローチであることは間違いない。
言い換えれば、Shapley値は特定の行、特に分類や回帰の問題における機能の重要性を表している。
Shapley valesの最大の制限の1つは、Shapley値計算はすべての特徴が(互いに独立して)非相関であると仮定するので、この仮定はしばしば正しくない。
この問題に対処するために,shapley値と相関した特徴量を計算するための統一フレームワークを提案する。
より具体的には、行の独立シェープリー値を計算しながら特徴量の調整(行列定式化)を行う。
さらに、これらの調整に対して数学的に証明した。
これらの調整により、特徴に対するシェープ値(重要度)は、それらの間の相関から独立する。
また、この調整の概念を機能以上に強化しました。
Shapley値が付加的であるため、2つの特徴の組合せ効果を計算するには、それぞれのShapley値を追加するだけでよい。
ひとつ以上の特徴(組み合わせで使用される)が他の特徴(組み合わせで使用されるものではない)と相関している場合、これは再び正しくない。
我々はまた,シャプリー値を決定する組み合わせにおいて,ある特徴の相関調整を複数の特徴に拡張することでこの問題に対処した。
本手法の実装により,shapley法と比較して計算効率も高いことが証明された。
関連論文リスト
- Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Shapley Sets: Feature Attribution via Recursive Function Decomposition [6.85316573653194]
特徴集合に価値を与える別の帰属的アプローチ、Shapley Setsを提案する。
共有集合は、基礎となるモデルを非分離変数群に分解する。
理論的および実験的に、Shapley SetsがShapley値に基づく代替案に関連する落とし穴を避ける方法を示す。
論文 参考訳(メタデータ) (2023-07-04T15:30:09Z) - Nonlinear Feature Aggregation: Two Algorithms driven by Theory [45.3190496371625]
現実世界の機械学習アプリケーションは、膨大な機能によって特徴付けられ、計算やメモリの問題を引き起こす。
一般集約関数を用いて特徴量の非線形変換を集約する次元還元アルゴリズム(NonLinCFA)を提案する。
また、アルゴリズムを合成および実世界のデータセット上でテストし、回帰および分類タスクを実行し、競合性能を示す。
論文 参考訳(メタデータ) (2023-06-19T19:57:33Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - WeightedSHAP: analyzing and improving Shapley based feature attributions [17.340091573913316]
共有価値(Shapley value)は、個々の特徴の影響を測定するための一般的なアプローチである。
WeightedSHAPを提案する。これはShapleyの価値を一般化し、データから直接フォーカスする限界貢献を学習する。
いくつかの実世界のデータセットにおいて、WeightedSHAPによって識別される影響のある特徴がモデルの予測を再カプセル化できることを示す。
論文 参考訳(メタデータ) (2022-09-27T14:34:07Z) - Faith-Shap: The Faithful Shapley Interaction Index [43.968337274203414]
シャプリー値の重要な魅力は、それらが非常に自然な公理的性質の集合を一意に満足していることである。
そこで,本研究では,標準個々のシャプリー公理の相互作用拡張を満たすために忠実な相互作用指標を求めることにより,一意に忠実なシャプリー相互作用指数が得られることを示す。
論文 参考訳(メタデータ) (2022-03-02T04:44:52Z) - Joint Shapley values: a measure of joint feature importance [6.169364905804678]
結合Shapley値を導入し、Shapley公理を直接拡張する。
ジョイントシェープの値は、モデルの予測に対する特徴の平均的な影響を測る。
ゲームの結果、ジョイントシェープの値は既存の相互作用指標とは異なる洞察を示します。
論文 参考訳(メタデータ) (2021-07-23T17:22:37Z) - groupShapley: Efficient prediction explanation with Shapley values for
feature groups [2.320417845168326]
シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
論文 参考訳(メタデータ) (2021-06-23T08:16:14Z) - Explaining the data or explaining a model? Shapley values that uncover
non-linear dependencies [0.0]
本稿では,エネルギー距離相関,アフィン不変距離相関,およびヒルベルト・シュミット独立基準をシェープリー値特性関数として導入し,その利用を実証する。
論文 参考訳(メタデータ) (2020-07-12T15:04:59Z) - Towards Efficient Data Valuation Based on the Shapley Value [65.4167993220998]
本稿では,Shapley値を用いたデータ評価の問題点について検討する。
Shapleyの値は、データ値の概念に対して多くのデシダータを満たすユニークなペイオフスキームを定義する。
本稿では,Shapley値を近似する効率的なアルゴリズムのレパートリーを提案する。
論文 参考訳(メタデータ) (2019-02-27T00:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。