論文の概要: Constrained Langevin Algorithms with L-mixing External Random Variables
- arxiv url: http://arxiv.org/abs/2205.14192v1
- Date: Fri, 27 May 2022 18:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 05:36:22.896294
- Title: Constrained Langevin Algorithms with L-mixing External Random Variables
- Title(参考訳): L混合外乱変数を用いた制約付きランゲヴィンアルゴリズム
- Authors: Yuping Zheng, Andrew Lamperski
- Abstract要約: ランゲヴィンサンプリングアルゴリズムは付加雑音で拡張される。
学習のためのランゲヴィンアルゴリズムの非同化解析は広く研究されている。
ここでは,Langevinアルゴリズムが22点の偏差を達成することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Langevin algorithms are gradient descent methods augmented with additive
noise, and are widely used in Markov Chain Monte Carlo (MCMC) sampling,
optimization, and learning. In recent years, the non-asymptotic analysis of
Langevin algorithms for non-convex optimization learning has been extensively
explored. For constrained problems with non-convex losses over compact convex
domain in the case of IID data variables, Langevin algorithm achieves a
deviation of $O(T^{-1/4} (\log T)^{1/2})$ from its target distribution [22]. In
this paper, we obtain a deviation of $O(T^{-1/2} \log T)$ in $1$-Wasserstein
distance for non-convex losses with $L$-mixing data variables and polyhedral
constraints (which are not necessarily bounded). This deviation indicates that
our convergence rate is faster than those in the previous works on constrained
Langevin algorithms for non-convex optimization.
- Abstract(参考訳): ランゲヴィンアルゴリズムは付加雑音を付加した勾配降下法であり、マルコフ・チェイン・モンテカルロ(MCMC)サンプリング、最適化、学習で広く用いられている。
近年,非凸最適化学習のためのLangevinアルゴリズムの漸近解析が広く研究されている。
iidデータ変数の場合、コンパクト凸領域上の非凸損失のある制約付き問題に対して、ランジュバンアルゴリズムはその対象分布 [22] から $o(t^{-1/4} (\log t)^{1/2}) の偏差を達成する。
本稿では,非凸損失に対する$O(T^{-1/2} \log T)$の差分を$L$混合データ変数とポリヘドラル制約(必ずしも有界ではない)で求める。
この偏差は、我々の収束速度が非凸最適化のための制約付きランゲヴィンアルゴリズムに関する以前の研究よりも速いことを示している。
関連論文リスト
- Breaking the Heavy-Tailed Noise Barrier in Stochastic Optimization Problems [56.86067111855056]
構造密度の重み付き雑音によるクリップ最適化問題を考察する。
勾配が有限の順序モーメントを持つとき、$mathcalO(K-(alpha - 1)/alpha)$よりも高速な収束率が得られることを示す。
得られた推定値が無視可能なバイアスと制御可能な分散を持つことを示す。
論文 参考訳(メタデータ) (2023-11-07T17:39:17Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Projected Stochastic Gradient Langevin Algorithms for Constrained
Sampling and Non-Convex Learning [0.0]
ランジュバンアルゴリズムは付加ノイズを持つ手法である。
ランジュバンアルゴリズムは何十年もチェーンカルロ(ミロン)で使われてきた
学習にとって、それはそれがそれが事実であるということであり、それが事実であるということであり、それが事実であるということであり、それが事実であるということであり、それが事実であるということであり、それがそれが事実であるということであり、それがそれがそれが事実であるということであるということであるということが、それが事実であるということであるということが、それが事実であるということであることを示している。
論文 参考訳(メタデータ) (2020-12-22T16:19:20Z) - Faster Differentially Private Samplers via R\'enyi Divergence Analysis
of Discretized Langevin MCMC [35.050135428062795]
ランゲヴィン力学に基づくアルゴリズムは、統計距離のようなある程度の距離測度の下で、はるかに高速な代替手段を提供する。
我々の手法は単純で汎用的で、アンダーダムドランゲヴィン力学に適用できる。
論文 参考訳(メタデータ) (2020-10-27T22:52:45Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Private Stochastic Convex Optimization: Optimal Rates in Linear Time [74.47681868973598]
本研究では,凸損失関数の分布から得られた個体群損失を最小化する問題について検討する。
Bassilyらによる最近の研究は、$n$のサンプルを与えられた過剰な人口損失の最適境界を確立している。
本稿では,余剰損失に対する最適境界を達成するとともに,$O(minn, n2/d)$グラデーション計算を用いて凸最適化アルゴリズムを導出する2つの新しい手法について述べる。
論文 参考訳(メタデータ) (2020-05-10T19:52:03Z) - Non-Convex Optimization via Non-Reversible Stochastic Gradient Langevin
Dynamics [27.097121544378528]
グラディエント・ランゲヴィン・ダイナミクス (Gradient Langevin Dynamics, SGLD) は、非目的勾配を最適化する強力なアルゴリズムである。
NSGLDは非可逆拡散の離散化に基づいている。
論文 参考訳(メタデータ) (2020-04-06T17:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。