論文の概要: Learnable Uncertainty under Laplace Approximations
- arxiv url: http://arxiv.org/abs/2010.02720v2
- Date: Mon, 7 Jun 2021 15:06:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:40:52.349190
- Title: Learnable Uncertainty under Laplace Approximations
- Title(参考訳): Laplace Approximation 下での学習不能性
- Authors: Agustinus Kristiadi, Matthias Hein, Philipp Hennig
- Abstract要約: 我々は、予測そのものに分離された方法で不確実性を明示的に「訓練」するために形式主義を発展させる。
これらのユニットは不確実性を認識した目標によってトレーニング可能であり、標準的なラプラス近似の性能を向上させることができる。
- 参考スコア(独自算出の注目度): 65.24701908364383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Laplace approximations are classic, computationally lightweight means for
constructing Bayesian neural networks (BNNs). As in other approximate BNNs, one
cannot necessarily expect the induced predictive uncertainty to be calibrated.
Here we develop a formalism to explicitly "train" the uncertainty in a
decoupled way to the prediction itself. To this end, we introduce uncertainty
units for Laplace-approximated networks: Hidden units associated with a
particular weight structure that can be added to any pre-trained,
point-estimated network. Due to their weights, these units are inactive -- they
do not affect the predictions. But their presence changes the geometry (in
particular the Hessian) of the loss landscape, thereby affecting the network's
uncertainty estimates under a Laplace approximation. We show that such units
can be trained via an uncertainty-aware objective, improving standard Laplace
approximations' performance in various uncertainty quantification tasks.
- Abstract(参考訳): ラプラス近似はベイズニューラルネットワーク(BNN)を構築するための古典的で計算的に軽量な方法である。
他の近似BNNと同様に、誘導予測の不確実性が校正されることを必ずしも期待することはできない。
ここでは,予測自体に分離された方法で不確実性を明示的に「訓練」する形式論を展開する。
この目的のために,ラプラス近似ネットワークに対する不確実性ユニットを導入する。任意の事前学習された点推定ネットワークに追加可能な,特定の重み構造に関連付けられた隠れ単位。
重量のため、これらの単位は不活性であり、予測には影響を与えない。
しかし、それらの存在は損失ランドスケープの幾何学(特にヘッセン)を変えるため、ラプラス近似の下でのネットワークの不確実性推定に影響を及ぼす。
これらのユニットは不確かさを認識できる目標によって訓練でき、様々な不確実性定量化タスクにおける標準ラプラス近似の性能を向上させることができる。
関連論文リスト
- Uncertainty Propagation in Node Classification [9.03984964980373]
本稿では,ノード分類作業におけるグラフニューラルネットワーク(GNN)の不確実性の測定に焦点をあてる。
ベイジアンモデリングフレームワークにGNNを組み込んだベイジアン不確実性伝播(BUP)法を提案する。
本稿では,GNNが学習過程における予測的不確実性を明確に統合できるようにするノード分類における不確実性指向の損失について述べる。
論文 参考訳(メタデータ) (2023-04-03T12:18:23Z) - Looking at the posterior: accuracy and uncertainty of neural-network
predictions [0.0]
予測精度はてんかんとアレタリック不確実性の両方に依存している。
本稿では,共通不確実性に基づく手法よりも優れた新たな獲得関数を提案する。
論文 参考訳(メタデータ) (2022-11-26T16:13:32Z) - Uncertainty estimation of pedestrian future trajectory using Bayesian
approximation [137.00426219455116]
動的トラフィックシナリオでは、決定論的予測に基づく計画は信頼できない。
著者らは、決定論的アプローチが捉えられない近似を用いて予測中の不確実性を定量化する。
将来の状態の不確実性に対する降雨重量と長期予測の影響について検討した。
論文 参考訳(メタデータ) (2022-05-04T04:23:38Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Robust uncertainty estimates with out-of-distribution pseudo-inputs
training [0.0]
我々は、信頼性のあるデータを与えられていない不確実性予測器を明示的に訓練することを提案する。
データ無しでは訓練できないので、入力空間の情報的低密度領域において擬似入力を生成するメカニズムを提供する。
総合的な評価により、様々なタスクにおける最先端性能を維持しながら、不確実性の頑健かつ解釈可能な予測が得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T17:15:07Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Uncertainty Intervals for Graph-based Spatio-Temporal Traffic Prediction [0.0]
本研究では,従来の時間ステップの測定値から密度を推定するよう訓練された時空間ニューラルネットワークを提案する。
この密度推定法はニューラルネットワークによって完全にパラメータ化され, 内部では近似値を用いない。
このアプローチは、モンテカルロドロップアウトのような推論中にサンプリングする必要なしに不確実性推定を生成する。
論文 参考訳(メタデータ) (2020-12-09T18:02:26Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Being Bayesian, Even Just a Bit, Fixes Overconfidence in ReLU Networks [65.24701908364383]
我々は、ReLUネットワーク上の不確実性に対する十分条件が「少しベイズ校正される」ことを示す。
さらに,これらの知見を,共通深部ReLUネットワークとLaplace近似を用いた各種標準実験により実証的に検証した。
論文 参考訳(メタデータ) (2020-02-24T08:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。