論文の概要: Improved Langevin Monte Carlo for stochastic optimization via landscape
modification
- arxiv url: http://arxiv.org/abs/2302.03973v1
- Date: Wed, 8 Feb 2023 10:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:47:21.016642
- Title: Improved Langevin Monte Carlo for stochastic optimization via landscape
modification
- Title(参考訳): ランドスケープ修正による確率最適化のためのLangevin Monte Carloの改良
- Authors: Michael C. H. Choi, Youjia Wang
- Abstract要約: 目的関数$H$を最小にするか,あるいは目標とするGibbs分布$pi_beta0propto e-beta H$を低温からサンプリングすると,本論文では,代替ランドスケープで動作するLangevin Monte Carlo (LMC)アルゴリズムを提案し,解析する。
変換されたランドスケープのエネルギー障壁は減少し、その結果、$pif_beta,c,1$に付随する修正Log-Sobolev定数の$beta$と$M$の両方に依存することが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a target function $H$ to minimize or a target Gibbs distribution
$\pi_{\beta}^0 \propto e^{-\beta H}$ to sample from in the low temperature, in
this paper we propose and analyze Langevin Monte Carlo (LMC) algorithms that
run on an alternative landscape as specified by $H^f_{\beta,c,1}$ and target a
modified Gibbs distribution $\pi^f_{\beta,c,1} \propto e^{-\beta
H^f_{\beta,c,1}}$, where the landscape of $H^f_{\beta,c,1}$ is a transformed
version of that of $H$ which depends on the parameters $f,\beta$ and $c$. While
the original Log-Sobolev constant affiliated with $\pi^0_{\beta}$ exhibits
exponential dependence on both $\beta$ and the energy barrier $M$ in the low
temperature regime, with appropriate tuning of these parameters and subject to
assumptions on $H$, we prove that the energy barrier of the transformed
landscape is reduced which consequently leads to polynomial dependence on both
$\beta$ and $M$ in the modified Log-Sobolev constant associated with
$\pi^f_{\beta,c,1}$. This yield improved total variation mixing time bounds and
improved convergence toward a global minimum of $H$. We stress that the
technique developed in this paper is not only limited to LMC and is broadly
applicable to other gradient-based optimization or sampling algorithms.
- Abstract(参考訳): Given a target function $H$ to minimize or a target Gibbs distribution $\pi_{\beta}^0 \propto e^{-\beta H}$ to sample from in the low temperature, in this paper we propose and analyze Langevin Monte Carlo (LMC) algorithms that run on an alternative landscape as specified by $H^f_{\beta,c,1}$ and target a modified Gibbs distribution $\pi^f_{\beta,c,1} \propto e^{-\beta H^f_{\beta,c,1}}$, where the landscape of $H^f_{\beta,c,1}$ is a transformed version of that of $H$ which depends on the parameters $f,\beta$ and $c$.
元のLog-Sobolev定数は$\pi^0_{\beta}$に関連付けられており、低温条件下では$M$と$\beta$の両方に指数関数依存を示し、これらのパラメータを適切にチューニングし、$H$に仮定するが、変換されたランドスケープのエネルギー障壁は減少し、その結果$\beta$と$M$が$\pi^f_{\beta,c,1}$に関連付けられた修正Log-Sobolev定数に多項式依存することを証明する。
この収率は全変量混合時間境界を改善し、世界最小の$H$への収束を改善した。
本稿では,本手法がLCCに限らず,他の勾配最適化やサンプリングアルゴリズムにも広く適用可能であることを強調する。
関連論文リスト
- On the $O(\frac{\sqrt{d}}{T^{1/4}})$ Convergence Rate of RMSProp and Its Momentum Extension Measured by $\ell_1$ Norm [59.65871549878937]
本稿では、RMSPropとその運動量拡張を考察し、$frac1Tsum_k=1Tの収束速度を確立する。
我々の収束率は、次元$d$を除くすべての係数に関して下界と一致する。
収束率は$frac1Tsum_k=1Tと類似していると考えられる。
論文 参考訳(メタデータ) (2024-02-01T07:21:32Z) - Kernelized Normalizing Constant Estimation: Bridging Bayesian Quadrature
and Bayesian Optimization [51.533164528799084]
小さい相対誤差内で正規化定数を推定するために、難易度は$lambda$の値に依存する。
関数評価がノイズである場合でも,このパターンは真であることがわかった。
論文 参考訳(メタデータ) (2024-01-11T07:45:09Z) - Horizon-Free and Variance-Dependent Reinforcement Learning for Latent
Markov Decision Processes [62.90204655228324]
我々は,後期マルコフ決定過程(LMDP)における強化学習(RL)の文脈を考慮した後悔の最小化について検討した。
我々は,モデル最適化と値最適化の両手法でインスタンス化できる,新しいモデルベースアルゴリズムフレームワークを設計する。
論文 参考訳(メタデータ) (2022-10-20T21:32:01Z) - Local Max-Entropy and Free Energy Principles Solved by Belief
Propagation [0.0]
統計システムは古典的には、大域エネルギー関数 $H : E to mathbbR$ によって、すべての逆温度 $beta = T-1$ に対して Gibbs の確率測度 $rhobeta(H)$ で定義される。
一般化信念伝播アルゴリズムは,自由エネルギー$F(beta)$,シャノンエントロピー$S(cal U)$,および変動自由エネルギーのBethe-Kikuchi近似の臨界点に収束することにより,局所変動原理の集合を解くことを示した。
論文 参考訳(メタデータ) (2022-07-02T14:20:40Z) - Continuous Submodular Maximization: Boosting via Non-oblivious Function [12.755674710719616]
本稿では、オフラインおよびオンライン設定の両方において制約付きおよび連続的なサブモジュールイテレーションを再考する。
係数回帰最適化方程式を用いて、問題$max_boldsymbolxinmathCf(boldsymbolx)$に対して最適な補助関数$F$を導出する。
オンライン環境では、勾配フィードバックアルゴリズムの強化を提案し、$sqrtD$($D$は勾配フィードバックが$(fracgamma2)$に対する遅延の総和である)を後悔する。
論文 参考訳(メタデータ) (2022-01-03T15:10:17Z) - Minimax Optimal Regression over Sobolev Spaces via Laplacian
Regularization on Neighborhood Graphs [25.597646488273558]
非パラメトリック回帰に対するグラフに基づくアプローチであるラプラシア平滑化の統計的性質について検討する。
ラプラシアン滑らか化が多様体適応であることを証明する。
論文 参考訳(メタデータ) (2021-06-03T01:20:41Z) - A New Framework for Variance-Reduced Hamiltonian Monte Carlo [88.84622104944503]
分散還元型ハミルトン・モンテカルロ法 (HMC) の新たなフレームワークを提案し,$L$-smooth および $m$-strongly log-concave 分布からサンプリングする。
本研究では,SAGA法やSVRG法をベースとした非バイアス勾配推定器を用いて,バッチサイズを小さくすることで,高い勾配効率が得られることを示す。
総合的および実世界のベンチマークデータによる実験結果から、我々の新しいフレームワークは、完全な勾配と勾配HMCアプローチを著しく上回っていることが示された。
論文 参考訳(メタデータ) (2021-02-09T02:44:24Z) - Convergence of Langevin Monte Carlo in Chi-Squared and Renyi Divergence [8.873449722727026]
推定値である$widetildemathcalO(depsilon-1)$が,これらの測定値の既知レートを改善することを示す。
特に凸および1次滑らかなポテンシャルについて、LCCアルゴリズムは、これらの測定値の既知率を改善するために$widetildemathcalO(depsilon-1)$を推定する。
論文 参考訳(メタデータ) (2020-07-22T18:18:28Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z) - On the Convergence of Langevin Monte Carlo: The Interplay between Tail
Growth and Smoothness [10.482805367361818]
リプシッツ勾配を持つポテンシャル、すなわち$beta=1$の場合、我々の速度は最もよく知られた依存性の速度を回復する。
この結果は、ターゲット分布において$nu_* = eff$、KL分割において$nu_*$に適用できる。
論文 参考訳(メタデータ) (2020-05-27T00:26:20Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。