論文の概要: On the Bias-Variance Characteristics of LIME and SHAP in High Sparsity
Movie Recommendation Explanation Tasks
- arxiv url: http://arxiv.org/abs/2206.04784v1
- Date: Thu, 9 Jun 2022 22:31:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 03:42:39.429860
- Title: On the Bias-Variance Characteristics of LIME and SHAP in High Sparsity
Movie Recommendation Explanation Tasks
- Title(参考訳): 高品位映画レコメンデーション解説課題におけるLIMEとSHAPのバイアス変動特性について
- Authors: Claudia V. Roberts and Ehtsham Elahi and Ashok Chandrashekar
- Abstract要約: 映画レコメンデーションタスクにおいて,LIMEとSHAPの2つの一般的な局所説明可能性技術を評価する。
この2つの手法はデータセットの空間性によって非常に異なる振る舞いをすることがわかった。
- 参考スコア(独自算出の注目度): 2.5042988191896134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We evaluate two popular local explainability techniques, LIME and SHAP, on a
movie recommendation task. We discover that the two methods behave very
differently depending on the sparsity of the data set. LIME does better than
SHAP in dense segments of the data set and SHAP does better in sparse segments.
We trace this difference to the differing bias-variance characteristics of the
underlying estimators of LIME and SHAP. We find that SHAP exhibits lower
variance in sparse segments of the data compared to LIME. We attribute this
lower variance to the completeness constraint property inherent in SHAP and
missing in LIME. This constraint acts as a regularizer and therefore increases
the bias of the SHAP estimator but decreases its variance, leading to a
favorable bias-variance trade-off especially in high sparsity data settings.
With this insight, we introduce the same constraint into LIME and formulate a
novel local explainabilty framework called Completeness-Constrained LIME
(CLIMB) that is superior to LIME and much faster than SHAP.
- Abstract(参考訳): 映画レコメンデーションタスクにおいて,LIMEとSHAPの2つの一般的な局所説明可能性技術を評価する。
この2つの手法はデータセットの空間性によって非常に異なる挙動を示す。
LIME はデータセットの密度の高いセグメントでは SHAP より優れており、SHAP はスパースセグメントでは SHAP より優れている。
この差は, LIME と SHAP の基底推定値の差分差特性にさかのぼる。
SHAPは, LIMEと比較して, スパースセグメントのばらつきが低いことがわかった。
この低分散は、SHAPに固有の完全性制約特性とLIMEに欠けていることに起因する。
この制約は正則化器として機能し、従ってSHAP推定器のバイアスを増加させるが、そのばらつきを減少させ、特に高頻度データ設定において好ましいバイアス分散トレードオフをもたらす。
この知見により、LIME に同じ制約を導入し、LIME よりも優れ、SHAP よりもはるかに高速な完全性制約 LIME (CLIMB) と呼ばれる新しい局所的な説明可能性フレームワークを定式化する。
関連論文リスト
- Zeroth-Order Fine-Tuning of LLMs in Random Subspaces [66.27334633749734]
言語モデルのサイズが大きくなるにつれて、バックプロパゲーションに対するメモリ要求が増加する。
Zeroth-order (ZOZO) 最適化手法はメモリ効率の代替手段を提供する。
本稿では,SubZeroがファインチューニングを強化し,通常のZOZO手法と比較して高速な結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-11T17:01:43Z) - Revisiting Essential and Nonessential Settings of Evidential Deep Learning [70.82728812001807]
Evidential Deep Learning (EDL) は不確実性推定の新しい手法である。
本報告では,EDLの簡易かつ効果的な拡張型であるRe-EDLを提案する。
論文 参考訳(メタデータ) (2024-10-01T04:27:07Z) - The Limits and Potentials of Local SGD for Distributed Heterogeneous Learning with Intermittent Communication [37.210933391984014]
ローカルSGDは分散学習において一般的な最適化手法であり、実際には他のアルゴリズムよりも優れていることが多い。
我々は、既存の一階データ不均一性仮定の下で、局所的なSGDに対して新しい下界を提供する。
また、いくつかの問題クラスに対して、高速化されたミニバッチSGDの min-max 最適性を示す。
論文 参考訳(メタデータ) (2024-05-19T20:20:03Z) - The Gaps between Pre-train and Downstream Settings in Bias Evaluation
and Debiasing [74.7319697510621]
In-Context Learning (ICL)は、FTベースのデバイアス法と比較して、PLMの変更を小さくする。
ICL-based debiasing method is a higher correlation between intrinsic and extrinsic bias scores than FT-based method。
論文 参考訳(メタデータ) (2024-01-16T17:15:08Z) - GLIME: General, Stable and Local LIME Explanation [11.002828804775392]
LIME(Local Interpretable Model-Agnostic Explanations)は、モデル行動を理解するために広く用いられる手法である。
GLIMEは、LIMEを拡張し、いくつかの先行メソッドを統合する拡張フレームワークである。
局所的および非バイアスなサンプリング分布を用いることで、GLIMEはLIMEと比較して局所的忠実度の高い説明を生成する。
論文 参考訳(メタデータ) (2023-11-27T11:17:20Z) - Bias-Aware Minimisation: Understanding and Mitigating Estimator Bias in
Private SGD [56.01810892677744]
DP-SGDにおいて,サンプルごとの勾配ノルムとプライベート勾配オラクルの推定バイアスの関連性を示す。
BAM(Bias-Aware Minimisation)を提案する。
論文 参考訳(メタデータ) (2023-08-23T09:20:41Z) - Tight Mutual Information Estimation With Contrastive Fenchel-Legendre
Optimization [69.07420650261649]
我々はFLOと呼ばれる新しい,シンプルで強力なコントラストMI推定器を提案する。
実証的に、我々のFLO推定器は前者の限界を克服し、より効率的に学習する。
FLOの有効性は、広範囲なベンチマークを用いて検証され、実際のMI推定におけるトレードオフも明らかにされる。
論文 参考訳(メタデータ) (2021-07-02T15:20:41Z) - An Imprecise SHAP as a Tool for Explaining the Class Probability
Distributions under Limited Training Data [5.8010446129208155]
クラス確率分布が不正確で分布の集合で表される場合に、不正確なSHAPを提案する。
不正確なSHAPの背後にある最初のアイデアは、機能の限界貢献を計算するための新しいアプローチである。
第二のアイデアは、間隔値シャプリー値の計算と縮小に対する一般的なアプローチを考える試みである。
論文 参考訳(メタデータ) (2021-06-16T20:30:26Z) - Double Robust Semi-Supervised Inference for the Mean: Selection Bias
under MAR Labeling with Decaying Overlap [11.758346319792361]
近年,半教師付き推論 (SS) が注目されている。
SS文献の多くは、L と U が等しく分布していると暗黙的に仮定している。
選択バイアスを許容するランダム(MAR)型ラベリングの欠落は、確率スコア(PS)の減衰特性によって必然的に悪化する。
論文 参考訳(メタデータ) (2021-04-14T07:27:27Z) - Rethink Maximum Mean Discrepancy for Domain Adaptation [77.2560592127872]
本論文は,(1)最大平均距離の最小化は,それぞれソースとクラス内距離の最大化に等しいが,その差を暗黙の重みと共同で最小化し,特徴判別性は低下する,という2つの本質的な事実を理論的に証明する。
いくつかのベンチマークデータセットの実験は、理論的な結果の有効性を証明しただけでなく、我々のアプローチが比較した最先端手法よりも大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2020-07-01T18:25:10Z) - Improving LIME Robustness with Smarter Locality Sampling [0.0]
我々は、よりリアルな合成データをサンプリングするために、生成的敵ネットワークをトレーニングすることで、LIMEをより堅牢にすることを提案する。
実験では, 実世界の3つのデータセットにまたがって, 偏りのある, 逆向きな行動を検出する精度が向上することを示した。
これは、いくつかのケースでは、トップ1の精度で99.94%まで、同等な説明品質を維持しながら達成される。
論文 参考訳(メタデータ) (2020-06-22T14:36:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。