論文の概要: Bayesian Neural Network via Stochastic Gradient Descent
- arxiv url: http://arxiv.org/abs/2006.08453v4
- Date: Mon, 21 Jun 2021 18:10:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 09:32:17.879003
- Title: Bayesian Neural Network via Stochastic Gradient Descent
- Title(参考訳): 確率勾配Descenceによるベイズニューラルネットワーク
- Authors: Abhinav Sagar
- Abstract要約: 本稿では,勾配推定手法を用いてベイズニューラルネットワークに勾配推定を適用する方法を示す。
我々の研究はベイジアンニューラルネットワークを用いた回帰手法のこれまでの状況を大きく上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of bayesian approach used in variational inference is to minimize
the KL divergence between variational distribution and unknown posterior
distribution. This is done by maximizing the Evidence Lower Bound (ELBO). A
neural network is used to parametrize these distributions using Stochastic
Gradient Descent. This work extends the work done by others by deriving the
variational inference models. We show how SGD can be applied on bayesian neural
networks by gradient estimation techniques. For validation, we have tested our
model on 5 UCI datasets and the metrics chosen for evaluation are Root Mean
Square Error (RMSE) error and negative log likelihood. Our work considerably
beats the previous state of the art approaches for regression using bayesian
neural networks.
- Abstract(参考訳): 変分推論におけるベイズアプローチの目標は、変分分布と未知の後方分布の間のklの発散を最小化することである。
これはエビデンス・ロウアー・バウンド(ELBO)を最大化する。
ニューラルネットワークは、確率勾配 Descent を用いてこれらの分布をパラメータ化する。
この研究は、変分推論モデルを導出することにより、他の人によってなされる仕事を拡張する。
本稿では,勾配推定手法を用いてsgdをベイズニューラルネットワークに適用する方法を示す。
検証のために、5つのUCIデータセットでモデルをテストし、評価のために選択されたメトリクスは、Root Mean Square Error(RMSE)エラーと負のログ可能性である。
我々の研究はベイジアンニューラルネットワークを用いた回帰手法のこれまでの状況を大きく上回っている。
関連論文リスト
- Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Kalman Bayesian Neural Networks for Closed-form Online Learning [5.220940151628734]
閉形式ベイズ推論によるBNN学習のための新しい手法を提案する。
出力の予測分布の計算と重み分布の更新をベイズフィルタおよび平滑化問題として扱う。
これにより、勾配降下のないシーケンシャル/オンライン方式でネットワークパラメータをトレーニングするためのクローズドフォーム表現が可能になる。
論文 参考訳(メタデータ) (2021-10-03T07:29:57Z) - Differentially private training of neural networks with Langevin
dynamics forcalibrated predictive uncertainty [58.730520380312676]
その結果,DP-SGD(差分偏差勾配勾配勾配勾配勾配)は,低校正・過信深層学習モデルが得られることがわかった。
これは、医療診断など、安全クリティカルな応用にとって深刻な問題である。
論文 参考訳(メタデータ) (2021-07-09T08:14:45Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Variational Laplace for Bayesian neural networks [25.055754094939527]
Variational Laplaceは、ニューラルネットワークの重みをサンプリングすることなく、ELBOを推定する可能性の局所近似を利用する。
分散パラメータの学習率を増加させることで早期停止を回避できることを示す。
論文 参考訳(メタデータ) (2021-02-27T14:06:29Z) - Sparsely constrained neural networks for model discovery of PDEs [0.0]
本稿では,任意のスパース回帰手法を用いて,ディープラーニングに基づくサロゲートのスパースパターンを決定するモジュラーフレームワークを提案する。
異なるネットワークアーキテクチャと疎度推定器がモデル発見精度と収束性を,いくつかのベンチマーク例でどのように改善するかを示す。
論文 参考訳(メタデータ) (2020-11-09T11:02:40Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Stochastic Bayesian Neural Networks [0.0]
ベイズニューラルネットワークの変分推論手法を,元のエビデンス下界を用いて構築する。
我々は,エビデンス低境界と呼ばれる新たな目的関数を用いて,エビデンス低境界を最大化するベイズニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-12T19:48:34Z) - A Bayesian regularization-backpropagation neural network model for
peeling computations [0.0]
入力データは有限要素(FE)剥離結果から取得される。
ニューラルネットワークは、FEデータセットの75%でトレーニングされる。
BR-BPNNモデルとk-fold法を併用することにより,剥離挙動を推定できる可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-29T21:58:43Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。