論文の概要: Scalable Generalized Bayesian Online Neural Network Training for Sequential Decision Making
- arxiv url: http://arxiv.org/abs/2506.11898v1
- Date: Fri, 13 Jun 2025 15:44:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.861672
- Title: Scalable Generalized Bayesian Online Neural Network Training for Sequential Decision Making
- Title(参考訳): 逐次決定のためのスケーラブル一般化ベイズオンラインニューラルネットワークトレーニング
- Authors: Gerardo Duran-Martin, Leandro Sánchez-Betancourt, Álvaro Cartea, Kevin Murphy,
- Abstract要約: オンライン学習のためのスケーラブルなアルゴリズムを導入し,ニューラルネットワークパラメータのベイズ推論を一般化した。
私たちのメソッドは、バッファを再生したりオフラインでリトレーニングしたりすることなく、すべてのネットワークパラメータをオンラインで更新します。
- 参考スコア(独自算出の注目度): 4.2994653504704194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce scalable algorithms for online learning and generalized Bayesian inference of neural network parameters, designed for sequential decision making tasks. Our methods combine the strengths of frequentist and Bayesian filtering, which include fast low-rank updates via a block-diagonal approximation of the parameter error covariance, and a well-defined posterior predictive distribution that we use for decision making. More precisely, our main method updates a low-rank error covariance for the hidden layers parameters, and a full-rank error covariance for the final layer parameters. Although this characterizes an improper posterior, we show that the resulting posterior predictive distribution is well-defined. Our methods update all network parameters online, with no need for replay buffers or offline retraining. We show, empirically, that our methods achieve a competitive tradeoff between speed and accuracy on (non-stationary) contextual bandit problems and Bayesian optimization problems.
- Abstract(参考訳): オンライン学習のためのスケーラブルなアルゴリズムを導入し、逐次意思決定タスク用に設計されたニューラルネットワークパラメータのベイズ推論を一般化した。
提案手法は,パラメータ誤差共分散のブロック対角近似による高速な低ランク更新と,意思決定に使用する事前予測分布を含む,頻繁なフィルタとベイズフィルタの長所を組み合わせたものである。
より正確には、本手法では、隠蔽層パラメータの低ランクエラー共分散と最終層パラメータのフルランクエラー共分散を更新する。
これは不適切な後部を特徴付けるが、結果として生じる後部予測分布が適切に定義されていることを示す。
私たちのメソッドは、バッファを再生したりオフラインでリトレーニングしたりすることなく、すべてのネットワークパラメータをオンラインで更新します。
実験により,この手法が(静止しない)文脈帯域問題とベイズ最適化問題において,速度と精度の競合的なトレードオフを実現することを示す。
関連論文リスト
- Variational Bayesian Bow tie Neural Networks with Shrinkage [0.276240219662896]
我々は、標準フィードフォワード修正ニューラルネットワークの緩和版を構築した。
我々は、条件付き線形およびガウス的モデルをレンダリングするために、Polya-Gammaデータ拡張トリックを用いる。
層間における分布仮定や独立性を回避する変分推論アルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-11-17T17:36:30Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Distributed Sketching for Randomized Optimization: Exact
Characterization, Concentration and Lower Bounds [54.51566432934556]
我々はヘシアンの形成が困難である問題に対する分散最適化法を検討する。
ランダム化されたスケッチを利用して、問題の次元を減らし、プライバシを保ち、非同期分散システムにおけるストラグラーレジリエンスを改善します。
論文 参考訳(メタデータ) (2022-03-18T05:49:13Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。