論文の概要: Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2402.04211v1
- Date: Tue, 6 Feb 2024 18:09:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-07 13:56:18.074862
- Title: Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification
- Title(参考訳): 変分シェープリーネットワーク:不確実性量子化による自己説明シェープリー値の確率論的アプローチ
- Authors: Mert Ketenci, I\~nigo Urteaga, Victor Alfonso Rodriguez, No\'emie
Elhadad, Adler Perotte
- Abstract要約: シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
- 参考スコア(独自算出の注目度): 2.6699011287124366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shapley values have emerged as a foundational tool in machine learning (ML)
for elucidating model decision-making processes. Despite their widespread
adoption and unique ability to satisfy essential explainability axioms,
computational challenges persist in their estimation when ($i$) evaluating a
model over all possible subset of input feature combinations, ($ii$) estimating
model marginals, and ($iii$) addressing variability in explanations. We
introduce a novel, self-explaining method that simplifies the computation of
Shapley values significantly, requiring only a single forward pass. Recognizing
the deterministic treatment of Shapley values as a limitation, we explore
incorporating a probabilistic framework to capture the inherent uncertainty in
explanations. Unlike alternatives, our technique does not rely directly on the
observed data space to estimate marginals; instead, it uses adaptable baseline
values derived from a latent, feature-specific embedding space, generated by a
novel masked neural network architecture. Evaluations on simulated and real
datasets underscore our technique's robust predictive and explanatory
performance.
- Abstract(参考訳): シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
重要な説明可能性の公理を満足する独自の能力が広く採用されているにもかかわらず、計算上の課題は、入力特徴の組み合わせのすべての可能な部分集合に対してモデルを評価する場合(i$)、モデルの限界を推定する場合(ii$)、説明における変数を推定する場合(iii$)、である。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
シャプリー値の決定論的扱いを限界として認識し,説明に固有の不確実性を取り込む確率的枠組みを取り入れる。
代替手法とは異なり、我々の手法は観測されたデータ空間に直接依存せず、代わりに、新しいマスク付きニューラルネットワークアーキテクチャによって生成される潜在的特徴特異的な埋め込み空間に由来する適応可能なベースライン値を使用する。
シミュレーションおよび実データセットの評価は、我々の手法の堅牢な予測と説明性能を裏付けるものである。
関連論文リスト
- Unveil Sources of Uncertainty: Feature Contribution to Conformal Prediction Intervals [0.3495246564946556]
共形予測(CP)に基づく新しいモデルに依存しない不確実性属性(UA)法を提案する。
我々は,CP間隔特性-幅や境界条件-を値関数として定義し,入力特徴に対する予測不確かさを属性とする協調ゲームを定義する。
人工ベンチマークと実世界のデータセットを用いた実験は、我々のアプローチの実用的有用性と解釈的深さを実証する。
論文 参考訳(メタデータ) (2025-05-19T13:49:05Z) - Bayesian Estimation and Tuning-Free Rank Detection for Probability Mass Function Tensors [17.640500920466984]
本稿では,関節のPMFを推定し,そのランクを観測データから自動的に推定する新しい枠組みを提案する。
我々は、様々なモデルパラメータの後方分布を近似するために、変分推論(VI)に基づく決定論的解を導出し、さらに、変分推論(SVI)を利用して、VVIベースのアプローチのスケーラブルバージョンを開発する。
合成データと実映画レコメンデーションデータの両方を含む実験は、推定精度、自動ランク検出、計算効率の点で、VVIおよびSVIベースの手法の利点を示している。
論文 参考訳(メタデータ) (2024-10-08T20:07:49Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Stratified Prediction-Powered Inference for Hybrid Language Model Evaluation [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
我々はStratPPI(Stratified Prediction-Powered Inference)という手法を提案する。
単純なデータ階層化戦略を用いることで,基礎的なPPI推定精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-06-06T17:37:39Z) - Energy-Based Model for Accurate Estimation of Shapley Values in Feature Attribution [8.957856106096417]
EmSHAP (Energy-based model for Shapley value Estimation) は、Shapleyコントリビューション関数の期待値を推定するために提案される。
GRU(Gated Recurrent Unit)結合分割関数推定法を提案する。
論文 参考訳(メタデータ) (2024-04-01T12:19:33Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Shapley Value on Probabilistic Classifiers [6.163093930860032]
機械学習(ML)の文脈では、データ評価手法は、MLモデルの実用性に対する各データポイントの寄与を公平に測定することを目的としている。
従来のShapleyベースのデータ評価手法は、有益と有害なトレーニングデータポイントを効果的に区別するものではない。
確率的効用関数を構成することにより確率的シェープ(P-Shapley)値を提案する。
論文 参考訳(メタデータ) (2023-06-12T15:09:13Z) - DU-Shapley: A Shapley Value Proxy for Efficient Dataset Valuation [23.646508094051768]
我々は、データセットのバリュエーションの問題、すなわち、インクリメンタルゲインを定量化する問題を考える。
Shapleyの値は、その正式な公理的正当化のためにデータセットのバリュエーションを実行する自然なツールである。
本稿では,離散一様分布下での予測として表現される離散一様シャプリーと呼ばれる新しい近似を提案する。
論文 参考訳(メタデータ) (2023-06-03T10:22:50Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Robustness of Machine Learning Models Beyond Adversarial Attacks [0.0]
本稿では,MLモデルのロバスト性を決定する上で,敵対的ロバスト性や近縁なメトリクスが必ずしも有効な指標ではないことを示す。
アプリケーション毎に個別に入力データの摂動をモデル化するフレキシブルなアプローチを提案する。
これは、現実の摂動が予測を変える可能性を計算する確率論的アプローチと組み合わせられる。
論文 参考訳(メタデータ) (2022-04-21T12:09:49Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Goal-oriented adaptive sampling under random field modelling of response
probability distributions [0.6445605125467573]
応答分布の空間的変動がそれらの平均および/または分散だけでなく、例えば、形状や一様性、多様性などを含む他の特徴も考慮する。
我々の貢献は、それによって引き起こされる確率分布の場をモデル化する非パラメトリックベイズアプローチに基づいている。
論文 参考訳(メタデータ) (2021-02-15T15:55:23Z) - Explaining predictive models using Shapley values and non-parametric
vine copulas [2.6774008509840996]
特徴間の依存をモデル化するための2つの新しいアプローチを提案する。
提案手法の性能はシミュレーションされたデータセットと実データセットで評価される。
実験により、ブドウのコプラアプローチは、ライバルよりも真のシャプリー値により正確な近似を与えることが示された。
論文 参考訳(メタデータ) (2021-02-12T09:43:28Z) - Probabilistic electric load forecasting through Bayesian Mixture Density
Networks [70.50488907591463]
確率的負荷予測(PLF)は、スマートエネルギーグリッドの効率的な管理に必要な拡張ツールチェーンの重要なコンポーネントです。
ベイジアン混合密度ネットワークを枠とした新しいPLFアプローチを提案する。
後方分布の信頼性と計算にスケーラブルな推定を行うため,平均場変動推定と深層アンサンブルを統合した。
論文 参考訳(メタデータ) (2020-12-23T16:21:34Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。