論文の概要: A Kernel Framework to Quantify a Model's Local Predictive Uncertainty
under Data Distributional Shifts
- arxiv url: http://arxiv.org/abs/2103.01374v1
- Date: Tue, 2 Mar 2021 00:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 15:43:18.466403
- Title: A Kernel Framework to Quantify a Model's Local Predictive Uncertainty
under Data Distributional Shifts
- Title(参考訳): データ分布シフトによるモデルの局所予測不確実性を定量化するカーネルフレームワーク
- Authors: Rishabh Singh and Jose C. Principe
- Abstract要約: 訓練されたニューラルネットワークの内部層出力は、そのマッピング機能と入力データ分布の両方に関連するすべての情報を含む。
生予測空間のPDFを明示的に推定する訓練ニューラルネットワークの予測不確実性定量化のためのフレームワークを提案する。
カーネルフレームワークは、モデル予測エラーを検出する能力に基づいて、はるかに精度の高いモデル不確実性推定を提供する。
- 参考スコア(独自算出の注目度): 21.591460685054546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional Bayesian approaches for model uncertainty quantification rely on
notoriously difficult processes of marginalization over each network parameter
to estimate its probability density function (PDF). Our hypothesis is that
internal layer outputs of a trained neural network contain all of the
information related to both its mapping function (quantified by its weights) as
well as the input data distribution. We therefore propose a framework for
predictive uncertainty quantification of a trained neural network that
explicitly estimates the PDF of its raw prediction space (before activation),
p(y'|x,w), which we refer to as the model PDF, in a Gaussian reproducing kernel
Hilbert space (RKHS). The Gaussian RKHS provides a localized density estimate
of p(y'|x,w), which further enables us to utilize gradient based formulations
of quantum physics to decompose the model PDF in terms of multiple local
uncertainty moments that provide much greater resolution of the PDF than the
central moments characterized by Bayesian methods. This provides the framework
with a better ability to detect distributional shifts in test data away from
the training data PDF learned by the model. We evaluate the framework against
existing uncertainty quantification methods on benchmark datasets that have
been corrupted using common perturbation techniques. The kernel framework is
observed to provide model uncertainty estimates with much greater precision
based on the ability to detect model prediction errors.
- Abstract(参考訳): モデル不確実性の定量化のための従来のベイズアプローチは、各ネットワークパラメータ上の境界化の悪名高い困難なプロセスに依存して、その確率密度関数を推定する(PDF)。
我々の仮説は、トレーニングされたニューラルネットワークの内部層出力は、そのマッピング機能(重みによって定量化される)と入力データ分布の両方に関連する全ての情報を含んでいるということである。
そこで本研究では,ガウス再生カーネルヒルベルト空間(RKHS)において,生予測空間(活性化前),p(y'|x,w)のPDFをモデルPDFとして明示的に推定する訓練ニューラルネットワークの予測不確実性定量のためのフレームワークを提案する。
ガウス RKHS は p(y'|x,w) の局所密度推定を提供しており、これによりさらに、グラデーションに基づく量子物理学の定式化を利用して、複数の局所不確実性モーメントの観点からモデル PDF を分解することができる。
これにより、フレームワークは、モデルによって学習されたトレーニングデータPDFからテストデータの分散シフトを検出することができる。
既存の不確実性の定量化手法に対するフレームワークを, 一般的な摂動法を用いて破損したベンチマークデータセット上で評価する。
カーネルフレームワークは、モデル予測エラーを検出する能力に基づいて、はるかに精度の高いモデル不確実性推定を提供する。
関連論文リスト
- Inflationary Flows: Calibrated Bayesian Inference with Diffusion-Based Models [0.0]
本稿では,拡散モデルを用いてベイズ推定を行う方法を示す。
本稿では,新しいノイズスケジュールを用いて,標準的なDBMトレーニングを通じてそのようなマップを学習する方法を示す。
その結果は、低次元の潜在空間上で一意に定義される非常に表現性の高い生成モデルのクラスである。
論文 参考訳(メタデータ) (2024-07-11T19:58:19Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Quantifying Model Predictive Uncertainty with Perturbation Theory [21.591460685054546]
本稿では,ニューラルネットワークの予測不確実性定量化のためのフレームワークを提案する。
量子物理学の摂動理論を用いてモーメント分解問題を定式化する。
我々の手法は、より高精度でキャリブレーションの高い高速なモデル予測不確実性推定を提供する。
論文 参考訳(メタデータ) (2021-09-22T17:55:09Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Towards a Kernel based Uncertainty Decomposition Framework for Data and
Models [20.348825818435767]
本稿では,データとモデルの両方において予測の不確実性を定量化する新しいフレームワークを提案する。
我々は,このフレームワークを,点予測ニューラルネットワークモデルの予測不確実性定量化のためのサロゲートツールとして応用する。
論文 参考訳(メタデータ) (2020-01-30T18:35:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。