論文の概要: High-Order Langevin Monte Carlo Algorithms
- arxiv url: http://arxiv.org/abs/2508.17545v1
- Date: Sun, 24 Aug 2025 22:37:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.578041
- Title: High-Order Langevin Monte Carlo Algorithms
- Title(参考訳): 高次ランゲヴィンモンテカルロアルゴリズム
- Authors: Thanh Dang, Mert Gurbuzbalaban, Mohammad Rafiqul Islam, Nian Yao, Lingjiong Zhu,
- Abstract要約: ランゲヴィンアルゴリズムは大規模なサンプリング問題に対するマルコフ連鎖モンテカルロ (MCMC) 法として人気がある。
我々は,P$-th次ランゲヴィン・モンテカルロ(LMC)アルゴリズムを,P$-th次ランゲヴィン・ダイナミクスの離散化に基づいて提案する。
対数凹凸と滑らかな密度を持つ分布からサンプリングするワッサーシュタイン収束保証を得る。
- 参考スコア(独自算出の注目度): 3.4106874887901437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Langevin algorithms are popular Markov chain Monte Carlo (MCMC) methods for large-scale sampling problems that often arise in data science. We propose Monte Carlo algorithms based on the discretizations of $P$-th order Langevin dynamics for any $P\geq 3$. Our design of $P$-th order Langevin Monte Carlo (LMC) algorithms is by combining splitting and accurate integration methods. We obtain Wasserstein convergence guarantees for sampling from distributions with log-concave and smooth densities. Specifically, the mixing time of the $P$-th order LMC algorithm scales as $O\left(d^{\frac{1}{R}}/\epsilon^{\frac{1}{2R}}\right)$ for $R=4\cdot 1_{\{ P=3\}}+ (2P-1)\cdot 1_{\{ P\geq 4\}}$, which has a better dependence on the dimension $d$ and the accuracy level $\epsilon$ as $P$ grows. Numerical experiments illustrate the efficiency of our proposed algorithms.
- Abstract(参考訳): ランゲヴィンアルゴリズム(英: Langevin algorithm)は、マルコフ連鎖モンテカルロ法(MCMC)の手法であり、データサイエンスでしばしば発生する大規模なサンプリング問題である。
任意の$P\geq 3$に対して,P$-次ランゲイン力学の離散化に基づくモンテカルロアルゴリズムを提案する。
P$-th Order Langevin Monte Carlo (LMC) アルゴリズムの設計は分割法と正確な積分法を組み合わせたものである。
対数凹凸と滑らかな密度を持つ分布からサンプリングするワッサーシュタイン収束保証を得る。
具体的には、$P$-階 LMCアルゴリズムの混合時間は$O\left(d^{\frac{1}{R}}/\epsilon^{\frac{1}{2R}}\right)$ for $R=4\cdot 1_{\{ P=3\}}+ (2P-1)\cdot 1_{\{ P\geq 4\}}$とスケールする。
数値実験は提案アルゴリズムの効率を例証する。
関連論文リスト
- The Picard-Lagrange Framework for Higher-Order Langevin Monte Carlo [15.440889897519483]
一般の$K$th-order Langevinダイナミックスに基づく新しいサンプリングアルゴリズムを導入し,2次法および3次法を超えて拡張する。
滑らかで強い対数凹凸密度を持つ対象に対して、ワッサーシュタイン距離における次元依存収束を証明する。
これはそのようなクエリの複雑さを達成する最初のサンプリングアルゴリズムである。
論文 参考訳(メタデータ) (2025-10-21T03:04:58Z) - Underdamped Langevin MCMC with third order convergence [1.8374319565577153]
アンダーダム型ランゲヴィン拡散(ULD)のための新しい数値計算法を提案する。
f$の勾配とヘシアンがリプシッツ連続であるという仮定の下で、我々のアルゴリズムは2-ワッサーシュタイン誤差を$varepsilon$ in $mathcalO(sqrtd/varepsilon)$ steps とする。
これは、3次収束を持つLDDのための最初の勾配のみの方法である。
論文 参考訳(メタデータ) (2025-08-22T16:00:01Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Near-Optimal Bounds for Learning Gaussian Halfspaces with Random
Classification Noise [50.64137465792738]
この問題に対する効率的なSQアルゴリズムは、少なくとも$Omega(d1/2/(maxp, epsilon)2)$. のサンプル複雑性を必要とする。
我々の下限は、この1/epsilon$に対する二次的依存は、効率的なアルゴリズムに固有のものであることを示唆している。
論文 参考訳(メタデータ) (2023-07-13T18:59:28Z) - Stochastic Approximation Approaches to Group Distributionally Robust Optimization and Beyond [89.72693227960274]
本稿では,グループ分散ロバスト最適化 (GDRO) を,$m$以上の異なる分布をうまく処理するモデルを学習する目的で検討する。
各ラウンドのサンプル数を$m$から1に抑えるため、GDROを2人でプレイするゲームとして、一方のプレイヤーが実行し、他方のプレイヤーが非公開のマルチアームバンディットのオンラインアルゴリズムを実行する。
第2のシナリオでは、最大リスクではなく、平均的最上位k$リスクを最適化し、分散の影響を軽減することを提案する。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - Private estimation algorithms for stochastic block models and mixture
models [63.07482515700984]
効率的なプライベート推定アルゴリズムを設計するための一般的なツール。
最初の効率的な$(epsilon, delta)$-differentially private algorithm for both weak recovery and exact recovery。
論文 参考訳(メタデータ) (2023-01-11T09:12:28Z) - Quantum Algorithms for Sampling Log-Concave Distributions and Estimating
Normalizing Constants [8.453228628258778]
我々は,対数凹分布をサンプリングし,正規化定数を推定するための量子アルゴリズムを開発した。
我々はモンテカルロ法と量子ウォークの量子アナログを利用する。
また、正規化定数を推定するための1/epsilon1-o(1)$量子下界も証明する。
論文 参考訳(メタデータ) (2022-10-12T19:10:43Z) - Hamiltonian Monte Carlo for efficient Gaussian sampling: long and random
steps [0.0]
Hamiltonian Monte Carlo (HMC) は密度$e-f(x)$の高次元分布からサンプリングするマルコフ連鎖アルゴリズムである。
HMCは,$widetildeO(sqrtkappa d1/4 log(1/varepsilon)$グラデーションクエリを用いて,全変動距離で$varepsilon$-closeの分布からサンプリングできることを示す。
論文 参考訳(メタデータ) (2022-09-26T15:29:29Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Practical and Parallelizable Algorithms for Non-Monotone Submodular
Maximization with Size Constraint [20.104148319012854]
サイズ制約に関して、必ずしも単調ではない部分モジュラ函数に対して存在および並列化可能である。
最適な適応性とほぼ最適な複雑性クエリを持つアルゴリズムによって達成される最適な近似係数を、0.193 - varepsilon$に改善する。
論文 参考訳(メタデータ) (2020-09-03T22:43:55Z) - Streaming Complexity of SVMs [110.63976030971106]
本稿では,ストリーミングモデルにおけるバイアス正規化SVM問題を解く際の空間複雑性について検討する。
両方の問題に対して、$frac1lambdaepsilon$の次元に対して、$frac1lambdaepsilon$よりも空間的に小さいストリーミングアルゴリズムを得ることができることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:10:00Z) - Model-Free Reinforcement Learning: from Clipped Pseudo-Regret to Sample
Complexity [59.34067736545355]
S$状態、$A$アクション、割引係数$gamma in (0,1)$、近似しきい値$epsilon > 0$の MDP が与えられた場合、$epsilon$-Optimal Policy を学ぶためのモデルなしアルゴリズムを提供する。
十分小さな$epsilon$の場合、サンプルの複雑さで改良されたアルゴリズムを示す。
論文 参考訳(メタデータ) (2020-06-06T13:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。