論文の概要: Boundary-Aware Uncertainty for Feature Attribution Explainers
- arxiv url: http://arxiv.org/abs/2210.02419v4
- Date: Fri, 26 May 2023 00:16:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 23:59:20.444007
- Title: Boundary-Aware Uncertainty for Feature Attribution Explainers
- Title(参考訳): 特徴属性記述器における境界認識の不確かさ
- Authors: Davin Hill, Aria Masoomi, Sandesh Ghimire, Max Torop, Jennifer Dy
- Abstract要約: 本稿では,不確実性を考慮した決定境界認識と説明関数近似の不確実性を組み合わせた統一的不確実性推定法を提案する。
提案するカーネルの類似性は,決定境界の複雑さによって増大することを示す。
複数のデータセットに対する実験結果から,GPECの不確実性推定は既存手法と比較して説明の理解を改善することが示された。
- 参考スコア(独自算出の注目度): 1.2567741565359498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Post-hoc explanation methods have become a critical tool for understanding
black-box classifiers in high-stakes applications. However, high-performing
classifiers are often highly nonlinear and can exhibit complex behavior around
the decision boundary, leading to brittle or misleading local explanations.
Therefore there is an impending need to quantify the uncertainty of such
explanation methods in order to understand when explanations are trustworthy.
In this work we propose the Gaussian Process Explanation unCertainty (GPEC)
framework, which generates a unified uncertainty estimate combining decision
boundary-aware uncertainty with explanation function approximation uncertainty.
We introduce a novel geodesic-based kernel, which captures the complexity of
the target black-box decision boundary. We show theoretically that the proposed
kernel similarity increases with decision boundary complexity. The proposed
framework is highly flexible; it can be used with any black-box classifier and
feature attribution method. Empirical results on multiple tabular and image
datasets show that the GPEC uncertainty estimate improves understanding of
explanations as compared to existing methods.
- Abstract(参考訳): ポストホックな説明手法は、高スループットアプリケーションにおいてブラックボックス分類器を理解する上で重要なツールとなっている。
しかし、ハイパフォーマンスな分類器は、しばしば高度に非線形であり、決定境界付近で複雑な振る舞いを示し、不安定で誤解を招く局所的な説明につながる。
そのため、この説明方法の不確かさを定量化し、いつ説明が信頼できるかを理解する必要性が差し迫っている。
本稿では,決定境界認識の不確実性と説明関数近似不確実性を組み合わせた統一不確実性推定を生成するガウス過程説明不確実性(gpec)フレームワークを提案する。
対象のブラックボックス決定境界の複雑さを捉えた新しい測地線ベースのカーネルを提案する。
提案するカーネルの類似性は,決定境界の複雑さによって増大することを示す。
提案するフレームワークは非常に柔軟で,ブラックボックス分類器や特徴属性法で使用することができる。
複数の表と画像のデータセットに対する実験結果から,GPECの不確実性推定は既存手法と比較して説明の理解を向上させることが示された。
関連論文リスト
- Learning Model Agnostic Explanations via Constraint Programming [8.257194221102225]
解釈可能な機械学習は、不透明な分類器による予測を人間に理解可能な言葉で説明するという、繰り返し発生する課題に直面している。
本稿では,このタスクを制約最適化問題(Constraint Optimization Problem)として,入力データインスタンスの最小誤差と境界サイズの説明と,ブラックボックスが生成したサンプルの集合を求める。
提案手法は,様々なデータセット上で実証的に評価し,最先端のアンカー法よりも統計的に優れていることを示す。
論文 参考訳(メタデータ) (2024-11-13T09:55:59Z) - Spectral Representations for Accurate Causal Uncertainty Quantification with Gaussian Processes [19.449942440902593]
ヒルベルト空間のスペクトル表現を通して制限に対処する手法IMPspecを導入する。
ヒルベルト空間回帰理論(英語版)において結果を拡張することにより、このモデルの後方が明示的に得られることを示す。
また、スペクトル表現を学習して後方校正を最適化する。
論文 参考訳(メタデータ) (2024-10-18T14:06:49Z) - Explaining Predictive Uncertainty by Exposing Second-Order Effects [13.83164409095901]
本稿では,2次効果に基づく予測不確実性を説明する新しい手法を提案する。
提案手法は一般に適用可能であり,一般的な帰属手法を強力な二次不確実性説明器に変換することができる。
論文 参考訳(メタデータ) (2024-01-30T21:02:21Z) - Information-Theoretic Safe Exploration with Gaussian Processes [89.31922008981735]
未知の(安全でない)制約に反するパラメータを評価できないような、逐次的な意思決定タスクについて検討する。
現在のほとんどのメソッドはドメインの離散化に依存しており、連続ケースに直接拡張することはできない。
本稿では,GP後部を直接利用して,最も情報に富む安全なパラメータを識別する情報理論的安全な探索基準を提案する。
論文 参考訳(メタデータ) (2022-12-09T15:23:58Z) - What is Flagged in Uncertainty Quantification? Latent Density Models for
Uncertainty Categorization [68.15353480798244]
不確実性定量化(UQ)は、信頼できる機械学習モデルを作成する上で不可欠である。
近年、疑わしい事例にフラグを立てるUQ手法が急上昇している。
分類タスクにおけるUQ手法によってフラグ付けされた不確実な例を分類する枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-11T19:47:00Z) - Posterior and Computational Uncertainty in Gaussian Processes [52.26904059556759]
ガウスのプロセスはデータセットのサイズとともに違法にスケールする。
多くの近似法が開発されており、必然的に近似誤差を導入している。
この余分な不確実性の原因は、計算が限られているため、近似後部を使用すると完全に無視される。
本研究では,観測された有限個のデータと有限個の計算量の両方から生じる組合せ不確実性を一貫した推定を行う手法の開発を行う。
論文 参考訳(メタデータ) (2022-05-30T22:16:25Z) - A Study on Mitigating Hard Boundaries of Decision-Tree-based Uncertainty
Estimates for AI Models [0.0]
不確実性ラッパーは、入力品質に関連する不確実性をクラスタ化するための決定木アプローチを使用し、異なる不確実性クラスタに厳密に入力を割り当てる。
我々の目標は、解釈可能性、ランタイムの複雑さ、予測性能を維持しながら、ハードな決定境界を緩和するアプローチに置き換えることです。
論文 参考訳(メタデータ) (2022-01-10T10:29:12Z) - Misspecified Gaussian Process Bandit Optimization [59.30399661155574]
カーネル化されたバンディットアルゴリズムは、この問題に対して強い経験的および理論的性能を示した。
本稿では、未知関数を$epsilon$-一様近似で近似できるエンフェミス特定カーネル化帯域設定を、ある再生カーネルヒルベルト空間(RKHS)において有界ノルムを持つ関数で導入する。
提案アルゴリズムは,不特定性に関する事前知識を伴わず,$epsilon$への最適依存を実現する。
論文 参考訳(メタデータ) (2021-11-09T09:00:02Z) - Gaussian Process Uniform Error Bounds with Unknown Hyperparameters for
Safety-Critical Applications [71.23286211775084]
未知のハイパーパラメータを持つ設定において、ロバストなガウス過程の均一なエラー境界を導入する。
提案手法はハイパーパラメータの空間における信頼領域を計算し,モデル誤差に対する確率的上限を求める。
実験により、バニラ法やベイズ法よりもバニラ法の方がはるかに優れていることが示された。
論文 参考訳(メタデータ) (2021-09-06T17:10:01Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Worst-Case Risk Quantification under Distributional Ambiguity using
Kernel Mean Embedding in Moment Problem [17.909696462645023]
カーネルの平均埋め込みを用いた分布あいまいさ下での最悪のケースリスクの定量化を提案する。
制約制御システムのコンテキストにおける最悪の制約違反確率を特徴付ける上で,提案手法を数値的に検証する。
論文 参考訳(メタデータ) (2020-03-31T23:51:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。