論文の概要: Provably Stable Feature Rankings with SHAP and LIME
- arxiv url: http://arxiv.org/abs/2401.15800v1
- Date: Sun, 28 Jan 2024 23:14:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-01-30 16:24:47.161882
- Title: Provably Stable Feature Rankings with SHAP and LIME
- Title(参考訳): SHAPとLIMEによる安定した特徴ランク付け
- Authors: Jeremy Goldwasser and Giles Hooker
- Abstract要約: SHAPやLIMEなどの入力変数のスコアリング方法は、ランダムサンプリングによる不安定性が高い。
最も重要な特徴を高い確率で正しくランク付けする属性法を考案する。
- 参考スコア(独自算出の注目度): 4.565151144070748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature attributions are ubiquitous tools for understanding the predictions
of machine learning models. However, popular methods for scoring input
variables such as SHAP and LIME suffer from high instability due to random
sampling. Leveraging ideas from multiple hypothesis testing, we devise
attribution methods that correctly rank the most important features with high
probability. Our algorithm RankSHAP guarantees that the $K$ highest Shapley
values have the proper ordering with probability exceeding $1-\alpha$.
Empirical results demonstrate its validity and impressive computational
efficiency. We also build on previous work to yield similar results for LIME,
ensuring the most important features are selected in the right order.
- Abstract(参考訳): 特徴属性は、機械学習モデルの予測を理解するためのユビキタスツールである。
しかし、shapやlimeなどの入力変数をスコアリングする一般的な方法は、ランダムサンプリングによる不安定度が高い。
複数の仮説テストからアイデアを活用し、最も重要な特徴を高い確率で正しくランク付けする帰属法を考案する。
我々のアルゴリズム RankSHAP は、最高シェープ値が 1-\alpha$ を超える確率で正しい順序を持つことを保証している。
実証的な結果は、その妥当性と印象的な計算効率を示している。
我々はまた、LIMEの同様の結果を得るために、以前の作業に基づいて構築し、最も重要な機能が正しい順序で選択されることを保証します。
関連論文リスト
- Antithetic Sampling for Top-k Shapley Identification [19.221081896134567]
説明可能なAIの内外におけるShapleyの価値は、その公理的な特異性に起因している。
ほとんどの研究は、すべての特徴のShapley値の均一な近似を調査し、無意味な特徴のサンプルを不必要に消費する。
対照的に、$k$の最も重要な特徴を特定することは、既に十分に洞察に富むものであり、多武装の盗賊の分野と結びついたアルゴリズム的機会を活用する可能性をもたらす。
論文 参考訳(メタデータ) (2025-04-02T15:38:32Z) - Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - The Certainty Ratio $C_ρ$: a novel metric for assessing the reliability of classifier predictions [0.0]
本稿では,任意の分類性能指標に対する信頼性(確実性)と不確実性(不確実性)の寄与を定量化する新しい尺度であるCertainty Ratio(C_rho$)を紹介する。
21のデータセットと複数の分類器(Decision Trees、Naive-Bayes、 3-Nearest Neighbors、Random Forestsなど)にまたがる実験の結果、$C_rho$rhoは従来のメトリクスがしばしば見落としているという重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-11-04T10:50:03Z) - Bayesian Estimation and Tuning-Free Rank Detection for Probability Mass Function Tensors [17.640500920466984]
本稿では,関節のPMFを推定し,そのランクを観測データから自動的に推定する新しい枠組みを提案する。
我々は、様々なモデルパラメータの後方分布を近似するために、変分推論(VI)に基づく決定論的解を導出し、さらに、変分推論(SVI)を利用して、VVIベースのアプローチのスケーラブルバージョンを開発する。
合成データと実映画レコメンデーションデータの両方を含む実験は、推定精度、自動ランク検出、計算効率の点で、VVIおよびSVIベースの手法の利点を示している。
論文 参考訳(メタデータ) (2024-10-08T20:07:49Z) - A Probabilistic Perspective on Unlearning and Alignment for Large Language Models [48.96686419141881]
大規模言語モデル(LLM)のための最初の形式的確率的評価フレームワークを紹介する。
すなわち,モデルの出力分布に関する確率保証の高い新しい指標を提案する。
私たちのメトリクスはアプリケーションに依存しないので、デプロイ前にモデル機能についてより信頼性の高い見積を行うことができます。
論文 参考訳(メタデータ) (2024-10-04T15:44:23Z) - Provably Accurate Shapley Value Estimation via Leverage Score Sampling [12.201705893125775]
本稿では,Kernel SHAP の軽量な修正である Leverage SHAP を紹介する。
提案手法は,強力な回帰ツールであるレバレッジスコアサンプリングを用いて,シェープ値の推定とアクティブラーニングの関連性を利用する。
論文 参考訳(メタデータ) (2024-10-02T18:15:48Z) - The Distributional Uncertainty of the SHAP score in Explainable Machine Learning [2.655371341356892]
本稿では,未知の実体集団分布下でのSHAPスコアの推論の原理的枠組みを提案する。
我々は,この関数の最大値と最小値を求める基本的な問題について検討し,すべての特徴のSHAPスコアに対して厳密な範囲を決定できることを示した。
論文 参考訳(メタデータ) (2024-01-23T13:04:02Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Confident Feature Ranking [2.0564549686015594]
本稿では,グローバルな重要性値の不確実性を定量化する枠組みを提案する。
本稿では,特徴値のポストホック解釈のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-28T07:23:01Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - On the Trustworthiness of Tree Ensemble Explainability Methods [0.9558392439655014]
特徴重要度法(ゲインやSHAPなど)は、このニーズに対処する最も一般的な説明可能性法の一つである。
信頼できる、意味のある説明可能性のテクニックは、正確で安定した説明を提供する必要があります。
シミュレーションと4つの実世界のデータセットを用いた包括的実験により,グローバルな特徴重要度手法の精度と安定性を評価する。
論文 参考訳(メタデータ) (2021-09-30T20:56:37Z) - Learning to Rank Anomalies: Scalar Performance Criteria and Maximization
of Two-Sample Rank Statistics [0.0]
本稿では,観測結果の異常度を反映した特徴空間上で定義されたデータ駆動スコアリング関数を提案する。
このスコアリング関数は、よく設計された二項分類問題を通じて学習される。
本稿では,予備的な数値実験による方法論について解説する。
論文 参考訳(メタデータ) (2021-09-20T14:45:56Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - An Imprecise SHAP as a Tool for Explaining the Class Probability
Distributions under Limited Training Data [5.8010446129208155]
クラス確率分布が不正確で分布の集合で表される場合に、不正確なSHAPを提案する。
不正確なSHAPの背後にある最初のアイデアは、機能の限界貢献を計算するための新しいアプローチである。
第二のアイデアは、間隔値シャプリー値の計算と縮小に対する一般的なアプローチを考える試みである。
論文 参考訳(メタデータ) (2021-06-16T20:30:26Z) - Provably Efficient Reward-Agnostic Navigation with Linear Value
Iteration [143.43658264904863]
我々は、最小二乗値スタイルのアルゴリズムで一般的に使用される、より標準的なベルマン誤差の概念の下での反復が、ほぼ最適値関数の学習において強力なPAC保証を提供することを示す。
そこで本稿では,任意の(線形な)報酬関数に対して,最適に近いポリシーを学習するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-18T04:34:21Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。