論文の概要: When Langevin Monte Carlo Meets Randomization: Non-asymptotic Error Bounds beyond Log-Concavity and Gradient Lipschitzness
- arxiv url: http://arxiv.org/abs/2509.25630v1
- Date: Tue, 30 Sep 2025 00:48:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.378843
- Title: When Langevin Monte Carlo Meets Randomization: Non-asymptotic Error Bounds beyond Log-Concavity and Gradient Lipschitzness
- Title(参考訳): Langevin Monte Carlo氏がランダム化に出会った時 - 非漸近的エラー境界がログ共振性やグラディエントリプシッツを超えた
- Authors: Xiaojie Wang, Bin Yang,
- Abstract要約: ランダム化したランゲヴィンモンテカルロ (RLMC) を, 対数凹みのない高次元分布からサンプリングするために再検討する。
RLMCサンプリングアルゴリズムに対して,$mathcalW$-distance of order $O(sqrtdh)$の均一時間誤差を証明した。
改良されたRLMCアルゴリズムが提案され,非漸近誤差境界が確立された。
- 参考スコア(独自算出の注目度): 7.783499788849107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient sampling from complex and high dimensional target distributions turns out to be a fundamental task in diverse disciplines such as scientific computing, statistics and machine learning. In this paper, we revisit the randomized Langevin Monte Carlo (RLMC) for sampling from high dimensional distributions without log-concavity. Under the gradient Lipschitz condition and the log-Sobolev inequality, we prove a uniform-in-time error bound in $\mathcal{W}_2$-distance of order $O(\sqrt{d}h)$ for the RLMC sampling algorithm, which matches the best one in the literature under the log-concavity condition. Moreover, when the gradient of the potential $U$ is non-globally Lipschitz with superlinear growth, modified RLMC algorithms are proposed and analyzed, with non-asymptotic error bounds established. To the best of our knowledge, the modified RLMC algorithms and their non-asymptotic error bounds are new in the non-globally Lipschitz setting.
- Abstract(参考訳): 複雑かつ高次元のターゲット分布からの効率的なサンプリングは、科学計算、統計学、機械学習といった様々な分野における基本的な課題であることが判明した。
本稿では,ランダム化されたランゲヴィンモンテカルロ(RLMC)を,対数凹みのない高次元分布からサンプリングするために再検討する。
勾配リプシッツ条件と対数ソボレフ不等式の下では、対数共共共振条件下での文献の最良の値と一致するRLMCサンプリングアルゴリズムに対して、$\mathcal{W}_2$-distance of order $O(\sqrt{d}h)$の均一時間誤差が証明される。
さらに、U$の勾配が超線形成長を持つ非球面リプシッツであるとき、非漸近誤差境界を定め、改良RLMCアルゴリズムを提案し、解析する。
我々の知る限り、修正RLMCアルゴリズムとその非漸近誤差境界は、非グロブリーなリプシッツ設定において新しいものである。
関連論文リスト
- The Performance Of The Unadjusted Langevin Algorithm Without Smoothness Assumptions [0.0]
本稿では,Langevinをベースとしたアルゴリズムを提案する。
ULAのようなサンプリング器の性能は、必ずしも低規則性で任意に劣化しないことを示す。
論文 参考訳(メタデータ) (2025-02-05T18:55:54Z) - Faster Sampling via Stochastic Gradient Proximal Sampler [28.422547264326468]
非log-concave分布からのサンプリングのための近位サンプリング器 (SPS) について検討した。
対象分布への収束性は,アルゴリズムの軌道が有界である限り保証可能であることを示す。
我々は、Langevin dynamics(SGLD)とLangevin-MALAの2つの実装可能な変種を提供し、SPS-SGLDとSPS-MALAを生み出した。
論文 参考訳(メタデータ) (2024-05-27T00:53:18Z) - Computational-Statistical Gaps in Gaussian Single-Index Models [77.1473134227844]
単次元モデル(Single-Index Models)は、植木構造における高次元回帰問題である。
我々は,統計的クエリ (SQ) と低遅延多項式 (LDP) フレームワークの両方において,計算効率のよいアルゴリズムが必ずしも$Omega(dkstar/2)$サンプルを必要とすることを示した。
論文 参考訳(メタデータ) (2024-03-08T18:50:19Z) - Langevin Quasi-Monte Carlo [6.146093081175471]
ランゲヴィン・モンテカルロ(LMC)とその勾配バージョンは複雑な高次元分布からサンプリングする強力なアルゴリズムである。
準ランダムサンプルを用いてLCCの推定誤差を低減できることを示す。
論文 参考訳(メタデータ) (2023-09-22T07:15:18Z) - Kinetic Langevin MCMC Sampling Without Gradient Lipschitz Continuity --
the Strongly Convex Case [0.0]
目的がグローバルリプシッツであると仮定することなく,ハミルトン条件下での対数凹面分布からのサンプリングを検討する。
本稿では,多角勾配(テード)オイラースキームに基づく2つのアルゴリズムを提案し,各アルゴリズムのプロセスの法則と対象測度との間の非漸近的な2-ワッサーシュタイン距離を求める。
論文 参考訳(メタデータ) (2023-01-19T12:32:41Z) - SPIRAL: A superlinearly convergent incremental proximal algorithm for
nonconvex finite sum minimization [11.15617238382324]
SPIRAL は有限和問題に対する収束pRoximal algogomrithor である。
軽微な仮定の下では顕著な収束がある。
それは芸術の状況に競争力がある。
論文 参考訳(メタデータ) (2022-07-17T14:58:06Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Sample Complexity Bounds for Two Timescale Value-based Reinforcement
Learning Algorithms [65.09383385484007]
2つの時間スケール近似(SA)は、値に基づく強化学習アルゴリズムで広く使われている。
本稿では,2つの時間スケール線形および非線形TDCとGreedy-GQアルゴリズムの漸近収束率について検討する。
論文 参考訳(メタデータ) (2020-11-10T11:36:30Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z) - On Linear Stochastic Approximation: Fine-grained Polyak-Ruppert and
Non-Asymptotic Concentration [115.1954841020189]
The inequality and non-asymptotic properties of approximation procedure with Polyak-Ruppert averaging。
一定のステップサイズと無限大となる反復数を持つ平均的反復数に対する中心極限定理(CLT)を証明する。
論文 参考訳(メタデータ) (2020-04-09T17:54:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。