論文の概要: Removing the mini-batching error in Bayesian inference using Adaptive
Langevin dynamics
- arxiv url: http://arxiv.org/abs/2105.10347v1
- Date: Fri, 21 May 2021 13:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:32:53.135205
- Title: Removing the mini-batching error in Bayesian inference using Adaptive
Langevin dynamics
- Title(参考訳): Adaptive Langevin dynamics を用いたベイズ推論におけるミニバッチ誤差の除去
- Authors: Inass Sekkat, Gabriel Stoltz
- Abstract要約: 我々は、動的摩擦を伴う標準慣性ランゲヴィン力学の修正である、Adaptive Langevin dynamics(アダプティブランゲヴィン力学)を提唱する。
本稿では,Adaptive Langevinの前提となる仮定の実践的妥当性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The computational cost of usual Monte Carlo methods for sampling a posteriori
laws in Bayesian inference scales linearly with the number of data points. One
option to reduce it to a fraction of this cost is to resort to mini-batching in
conjunction with unadjusted discretizations of Langevin dynamics, in which case
only a random fraction of the data is used to estimate the gradient. However,
this leads to an additional noise in the dynamics and hence a bias on the
invariant measure which is sampled by the Markov chain. We advocate using the
so-called Adaptive Langevin dynamics, which is a modification of standard
inertial Langevin dynamics with a dynamical friction which automatically
corrects for the increased noise arising from mini-batching. We investigate the
practical relevance of the assumptions underpinning Adaptive Langevin (constant
covariance for the estimation of the gradient), which are not satisfied in
typical models of Bayesian inference; and show how to extend the approach to
more general situations.
- Abstract(参考訳): ベイズ推論における後方法則をサンプリングするための通常のモンテカルロ法の計算コストは、データ点の数に線形にスケールする。
このコストのごく一部に抑える選択肢の1つは、ランゲヴィン力学の非調整離散化(英語版)と組み合わせてミニバッチを行うことであり、この場合、データのランダムな分数だけを使って勾配を推定する。
しかし、これは力学のさらなるノイズをもたらし、従ってマルコフ連鎖によってサンプリングされる不変測度へのバイアスとなる。
適応ランゲヴィン力学(Adaptive Langevin dynamics)は,ミニバッチによる雑音の増大を自動的に補正する動的摩擦による標準慣性ランゲヴィン力学の修正である。
ベイズ推論の典型的なモデルでは満たされない適応的ランゲヴィン(勾配推定の定数共分散)を導く仮定の実践的関連性について検討し、より一般的な状況にアプローチを拡張する方法を示す。
関連論文リスト
- Max-affine regression via first-order methods [7.12511675782289]
最大アフィンモデルは信号処理と統計学の応用においてユビキタスに現れる。
最大アフィン回帰に対する勾配降下(GD)とミニバッチ勾配降下(SGD)の非漸近収束解析を行った。
論文 参考訳(メタデータ) (2023-08-15T23:46:44Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Unbiased Estimation using Underdamped Langevin Dynamics [0.0]
我々は,アンダーダムのランゲヴィン力学による非バイアスな手法の開発に焦点をあてる。
標準的な仮定の下では、推定子は有限分散であり、期待されるコストが有限であるか、あるいは高い確率で有限コストであることを示す。
論文 参考訳(メタデータ) (2022-06-14T23:05:56Z) - Implicit Bias of MSE Gradient Optimization in Underparameterized Neural
Networks [0.0]
勾配流による平均二乗誤差の最適化において,関数空間におけるニューラルネットワークのダイナミクスについて検討する。
ニューラルタンジェントカーネル(NTK)により決定された積分作用素$T_Kinfty$の固有関数をネットワークが学習することを示す。
減衰偏差は2乗誤差を最適化する際の力学の単純かつ統一的な視点を与えると結論付けている。
論文 参考訳(メタデータ) (2022-01-12T23:28:41Z) - Heavy-tailed denoising score matching [5.371337604556311]
ランゲヴィン力学における複数のノイズレベルを連続的に初期化する反復的雑音スケーリングアルゴリズムを開発した。
実用面では、重み付きDSMを用いることで、スコア推定、制御可能なサンプリング収束、不均衡データセットに対するよりバランスのない非条件生成性能が改善される。
論文 参考訳(メタデータ) (2021-12-17T22:04:55Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Asymmetric Heavy Tails and Implicit Bias in Gaussian Noise Injections [73.95786440318369]
我々は、勾配降下(SGD)のダイナミクスに対する注射ノイズの影響であるGNIsのいわゆる暗黙効果に焦点を当てています。
この効果は勾配更新に非対称な重尾ノイズを誘発することを示す。
そして、GNIが暗黙のバイアスを引き起こすことを正式に証明し、これは尾の重みと非対称性のレベルによって異なる。
論文 参考訳(メタデータ) (2021-02-13T21:28:09Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z) - Amortized variance reduction for doubly stochastic objectives [17.064916635597417]
複素確率モデルにおける近似推論は二重目的関数の最適化を必要とする。
現在のアプローチでは、ミニバッチがサンプリング性にどのように影響するかを考慮せず、結果として準最適分散が減少する。
本稿では,認識ネットワークを用いて各ミニバッチに対して最適な制御変数を安価に近似する手法を提案する。
論文 参考訳(メタデータ) (2020-03-09T13:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。