論文の概要: RKHS-SHAP: Shapley Values for Kernel Methods
- arxiv url: http://arxiv.org/abs/2110.09167v1
- Date: Mon, 18 Oct 2021 10:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 14:35:11.271765
- Title: RKHS-SHAP: Shapley Values for Kernel Methods
- Title(参考訳): RKHS-SHAP:カーネルメソッドの共有値
- Authors: Siu Lun Chau, Javier Gonzalez, Dino Sejdinovic
- Abstract要約: 本稿では,エフェクトインターベンショナル値とエフェクトオブザーショナルシェープ値の両方を効率的に計算できるカーネルマシンの属性法を提案する。
提案手法は局所的な摂動に対して頑健であることを示す。
- 参考スコア(独自算出の注目度): 17.52161019964009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature attribution for kernel methods is often heuristic and not
individualised for each prediction. To address this, we turn to the concept of
Shapley values, a coalition game theoretical framework that has previously been
applied to different machine learning model interpretation tasks, such as
linear models, tree ensembles and deep networks. By analysing Shapley values
from a functional perspective, we propose \textsc{RKHS-SHAP}, an attribution
method for kernel machines that can efficiently compute both
\emph{Interventional} and \emph{Observational Shapley values} using kernel mean
embeddings of distributions. We show theoretically that our method is robust
with respect to local perturbations - a key yet often overlooked desideratum
for interpretability. Further, we propose \emph{Shapley regulariser},
applicable to a general empirical risk minimisation framework, allowing
learning while controlling the level of specific feature's contributions to the
model. We demonstrate that the Shapley regulariser enables learning which is
robust to covariate shift of a given feature and fair learning which controls
the Shapley values of sensitive features.
- Abstract(参考訳): カーネルメソッドの機能帰属はしばしばヒューリスティックであり、予測ごとに個別化されない。
この問題に対処するため、我々は、線形モデル、ツリーアンサンブル、ディープネットワークなど、これまでさまざまな機械学習モデル解釈タスクに適用されてきた連立ゲーム理論フレームワークであるShapley値の概念に目を向ける。
関数的観点からShapley値を分析することにより,カーネル平均分布埋め込みを用いて,\emph{Interventional} と \emph{Observational Shapley値の両方を効率的に計算できるカーネルマシンの属性法である \textsc{RKHS-SHAP} を提案する。
理論的には、この手法は局所摂動に関して頑健であり、解釈可能性に関してしばしば見過ごされるデシデラタムである。
さらに,一般的な経験的リスク最小化フレームワークに適用可能な \emph{shapley regulariser} を提案する。
そこで本研究では,Shapley正規化によって,与えられた特徴の変動に頑健な学習と,感性のある特徴のShapley値を制御する公平な学習を可能にした。
関連論文リスト
- Improving the Sampling Strategy in KernelSHAP [0.8057006406834466]
KernelSHAPフレームワークは、重み付けされた条件付き期待値のサンプルサブセットを用いて、Shapley値の近似を可能にする。
本稿では,現在最先端戦略における重みの分散を低減するための安定化手法,サンプルサブセットに基づいてShapleyカーネル重みを補正する新しい重み付け方式,および重要なサブセットを包含して修正されたShapleyカーネル重みと統合する簡単な戦略を提案する。
論文 参考訳(メタデータ) (2024-10-07T10:02:31Z) - Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Lyapunov Density Models: Constraining Distribution Shift in
Learning-Based Control [64.61499213110334]
我々はエージェントを訓練された状態や行動に制約するメカニズムを模索する。
制御理論において、リャプノフ安定性と制御不変集合は、コントローラについて保証することを可能にする。
密度モデルによって トレーニングデータの分布を推定できます
論文 参考訳(メタデータ) (2022-06-21T16:49:09Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - groupShapley: Efficient prediction explanation with Shapley values for
feature groups [2.320417845168326]
シェープ価値は、機械学習モデルから予測を説明するための最も適切で理論的に健全なフレームワークの1つとして、自らを確立している。
Shapley値の主な欠点は、その計算複雑性が入力機能の数で指数関数的に増加することである。
本稿では、上記のボトルネックを扱うための概念的にシンプルなアプローチであるgroupShapleyを紹介する。
論文 参考訳(メタデータ) (2021-06-23T08:16:14Z) - Fast Hierarchical Games for Image Explanations [78.16853337149871]
本稿では,シェープリー係数の階層的拡張に基づく画像分類のモデル非依存な説明法を提案する。
他のShapleyベースの説明手法とは異なり、h-Shapはスケーラブルで近似を必要とせずに計算できる。
本手法は,合成データセット,医用画像シナリオ,一般コンピュータビジョン問題において,一般的なシャプリーベースおよび非サプリーベース手法と比較した。
論文 参考訳(メタデータ) (2021-04-13T13:11:02Z) - A Distributional Analysis of Sampling-Based Reinforcement Learning
Algorithms [67.67377846416106]
定常ステップサイズに対する強化学習アルゴリズムの理論解析に対する分布的アプローチを提案する。
本稿では,TD($lambda$)や$Q$-Learningのような値ベースの手法が,関数の分布空間で制約のある更新ルールを持つことを示す。
論文 参考訳(メタデータ) (2020-03-27T05:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。