論文の概要: Variational Laplace for Bayesian neural networks
- arxiv url: http://arxiv.org/abs/2103.00222v1
- Date: Sat, 27 Feb 2021 14:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:19:28.628170
- Title: Variational Laplace for Bayesian neural networks
- Title(参考訳): ベイズニューラルネットワークの変分ラプラス
- Authors: Ali Unlu, Laurence Aitchison
- Abstract要約: Variational Laplaceは、ニューラルネットワークの重みをサンプリングすることなく、ELBOを推定する可能性の局所近似を利用する。
分散パラメータの学習率を増加させることで早期停止を回避できることを示す。
- 参考スコア(独自算出の注目度): 25.055754094939527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop variational Laplace for Bayesian neural networks (BNNs) which
exploits a local approximation of the curvature of the likelihood to estimate
the ELBO without the need for stochastic sampling of the neural-network
weights. Variational Laplace performs better on image classification tasks than
MAP inference and far better than standard variational inference with
stochastic sampling despite using the same mean-field Gaussian approximate
posterior. The Variational Laplace objective is simple to evaluate, as it is
(in essence) the log-likelihood, plus weight-decay, plus a squared-gradient
regularizer. Finally, we emphasise care needed in benchmarking standard VI as
there is a risk of stopping before the variance parameters have converged. We
show that early-stopping can be avoided by increasing the learning rate for the
variance parameters.
- Abstract(参考訳): ニューラルネットワーク重みの確率的サンプリングを必要とせずに、ELBOを推定する可能性の曲率の局所近似を利用するベイズニューラルネットワーク(BNNs)の変動ラプレースを開発している。
変分ラプラスはMAP推定よりも画像分類タスクに優れており、同じ平均場ガウス近似後部を用いても確率的サンプリングによる標準変分ラプラスよりもはるかに優れている。
Variational Laplaceの目標は、(本質的には)ログの類似性、および重量減少、および平方勾配正規化であるため、評価するのが簡単です。
最後に、分散パラメータが収束する前に停止するリスクがあるため、標準VIのベンチマークに必要な注意点を強調します。
分散パラメータの学習率を増加させることで早期停止を回避できることを示す。
関連論文リスト
- Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Improved uncertainty quantification for neural networks with Bayesian
last layer [0.0]
不確実性定量化は機械学習において重要な課題である。
本稿では,BLL を用いた NN の対数乗算可能性の再構成を行い,バックプロパゲーションを用いた効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2023-02-21T20:23:56Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Differentially private training of neural networks with Langevin
dynamics forcalibrated predictive uncertainty [58.730520380312676]
その結果,DP-SGD(差分偏差勾配勾配勾配勾配勾配)は,低校正・過信深層学習モデルが得られることがわかった。
これは、医療診断など、安全クリティカルな応用にとって深刻な問題である。
論文 参考訳(メタデータ) (2021-07-09T08:14:45Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Variational Laplace for Bayesian neural networks [33.46810568687292]
我々はベイズニューラルネットワーク(BNN)のための変分ラプラスを開発する。
我々は,ニューラルネットワークの重みをサンプリングすることなく,ELBOの曲率を局所的に近似し,ELBOを推定する。
分散パラメータの学習率を増大させることにより,早期停止を回避できることを示す。
論文 参考訳(メタデータ) (2020-11-20T15:16:18Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Bayesian Neural Network via Stochastic Gradient Descent [0.0]
本稿では,勾配推定手法を用いてベイズニューラルネットワークに勾配推定を適用する方法を示す。
我々の研究はベイジアンニューラルネットワークを用いた回帰手法のこれまでの状況を大きく上回っている。
論文 参考訳(メタデータ) (2020-06-04T18:33:59Z) - The k-tied Normal Distribution: A Compact Parameterization of Gaussian
Mean Field Posteriors in Bayesian Neural Networks [46.677567663908185]
変分ベイズ推論は、ベイズニューラルネットワークの重み付けを近似する一般的な手法である。
最近の研究は、性能向上を期待して、近似後部のよりリッチなパラメータ化を探求している。
これらの変動パラメータを低ランク因子化に分解することにより、モデルの性能を低下させることなく変動近似をよりコンパクトにすることができる。
論文 参考訳(メタデータ) (2020-02-07T07:33:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。