論文の概要: Langevin Quasi-Monte Carlo
- arxiv url: http://arxiv.org/abs/2309.12664v1
- Date: Fri, 22 Sep 2023 07:15:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 15:41:40.601641
- Title: Langevin Quasi-Monte Carlo
- Title(参考訳): ランジュバン準モンテカルロ
- Authors: Sifan Liu
- Abstract要約: ランゲヴィン・モンテカルロ(LMC)とその勾配バージョンは複雑な高次元分布からサンプリングする強力なアルゴリズムである。
準ランダムサンプルを用いてLCCの推定誤差を低減できることを示す。
- 参考スコア(独自算出の注目度): 6.146093081175471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Langevin Monte Carlo (LMC) and its stochastic gradient versions are powerful
algorithms for sampling from complex high-dimensional distributions. To sample
from a distribution with density $\pi(\theta)\propto \exp(-U(\theta)) $, LMC
iteratively generates the next sample by taking a step in the gradient
direction $\nabla U$ with added Gaussian perturbations. Expectations w.r.t. the
target distribution $\pi$ are estimated by averaging over LMC samples. In
ordinary Monte Carlo, it is well known that the estimation error can be
substantially reduced by replacing independent random samples by quasi-random
samples like low-discrepancy sequences. In this work, we show that the
estimation error of LMC can also be reduced by using quasi-random samples.
Specifically, we propose to use completely uniformly distributed (CUD)
sequences with certain low-discrepancy property to generate the Gaussian
perturbations. Under smoothness and convexity conditions, we prove that LMC
with a low-discrepancy CUD sequence achieves smaller error than standard LMC.
The theoretical analysis is supported by compelling numerical experiments,
which demonstrate the effectiveness of our approach.
- Abstract(参考訳): ランゲヴィン・モンテカルロ(LMC)とその確率勾配バージョンは複雑な高次元分布からサンプリングする強力なアルゴリズムである。
密度 $\pi(\theta)\propto \exp(-U(\theta)) $ の分布からサンプリングするために、LCC はガウス摂動を加えて勾配方向 $\nabla U$ のステップを踏んで次のサンプルを反復的に生成する。
目標分布$\pi$に対する期待値は、LCCサンプルの平均化によって推定される。
通常のモンテカルロでは、独立ランダムサンプルを低分解配列のような準ランダムサンプルに置き換えることで、推定誤差が大幅に低減できることが知られている。
本研究では,準ランダムサンプルを用いてLCCの推定誤差を低減できることを示す。
具体的には,ガウス摂動を生成するために,ある種の低分散特性を持つ完全均一分布(CUD)シーケンスを提案する。
滑らかさと凸性条件下では,低分解能CUDシーケンスのLCCが標準LCCよりも誤差が小さいことを証明した。
理論解析は,本手法の有効性を示す説得力のある数値実験によって支援されている。
関連論文リスト
- Efficiently learning and sampling multimodal distributions with data-based initialization [20.575122468674536]
静止測度から少数のサンプルを与えられたマルコフ連鎖を用いて多重モーダル分布をサンプリングする問題を考察する。
マルコフ連鎖が$k$dのスペクトルギャップを持つ場合、静止分布からのサンプルは、静止測度からテレビ距離において$varepsilon$-closeの条件法則を持つサンプルを効率よく生成する。
論文 参考訳(メタデータ) (2024-11-14T01:37:02Z) - Provable Benefit of Annealed Langevin Monte Carlo for Non-log-concave Sampling [28.931489333515618]
簡単なアニール型Langevin Monte Carloアルゴリズムに対して$widetildeOleft(fracdbeta2cal A2varepsilon6right)のオラクル複雑性を確立する。
例えば、$cal A$ は対象分布 $pi$ と容易にサンプリング可能な分布を補間する確率測度の曲線の作用を表す。
論文 参考訳(メタデータ) (2024-07-24T02:15:48Z) - Faster Sampling via Stochastic Gradient Proximal Sampler [28.422547264326468]
非log-concave分布からのサンプリングのための近位サンプリング器 (SPS) について検討した。
対象分布への収束性は,アルゴリズムの軌道が有界である限り保証可能であることを示す。
我々は、Langevin dynamics(SGLD)とLangevin-MALAの2つの実装可能な変種を提供し、SPS-SGLDとSPS-MALAを生み出した。
論文 参考訳(メタデータ) (2024-05-27T00:53:18Z) - Faster Sampling without Isoperimetry via Diffusion-based Monte Carlo [30.4930148381328]
拡散に基づくモンテカルロ (DMC) は、等尺条件を超えた一般目標分布から試料を採取する手法である。
DMCは、高い勾配の複雑さに遭遇し、その結果、得られたサンプルのエラー耐性$epsilon$に指数関数的に依存する。
本稿では,新しい再帰に基づくスコア推定法に基づくRS-DMCを提案する。
私たちのアルゴリズムは、人気のあるLangevinベースのアルゴリズムよりもはるかに高速です。
論文 参考訳(メタデータ) (2024-01-12T02:33:57Z) - Reverse Diffusion Monte Carlo [19.35592726471155]
逆拡散モンテカルロ(rdMC)と呼ばれる新しいモンテカルロサンプリングアルゴリズムを提案する。
rdMCはマルコフ連鎖モンテカルロ(MCMC)法とは異なる。
論文 参考訳(メタデータ) (2023-07-05T05:42:03Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Low-variance estimation in the Plackett-Luce model via quasi-Monte Carlo
sampling [58.14878401145309]
PLモデルにおいて,より標本効率の高い予測値を生成するための新しい手法を開発した。
Amazon MusicのリアルなレコメンデーションデータとYahooの学習からランクへの挑戦を理論的にも実証的にも使用しています。
論文 参考訳(メタデータ) (2022-05-12T11:15:47Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。