論文の概要: Projected Stochastic Gradient Langevin Algorithms for Constrained
Sampling and Non-Convex Learning
- arxiv url: http://arxiv.org/abs/2012.12137v1
- Date: Tue, 22 Dec 2020 16:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 07:15:31.268948
- Title: Projected Stochastic Gradient Langevin Algorithms for Constrained
Sampling and Non-Convex Learning
- Title(参考訳): 制約付きサンプリングと非凸学習のための確率的勾配ランジュバンアルゴリズム
- Authors: Andrew Lamperski
- Abstract要約: ランジュバンアルゴリズムは付加ノイズを持つ手法である。
ランジュバンアルゴリズムは何十年もチェーンカルロ(ミロン)で使われてきた
学習にとって、それはそれがそれが事実であるということであり、それが事実であるということであり、それが事実であるということであり、それが事実であるということであり、それが事実であるということであり、それがそれが事実であるということであり、それがそれがそれが事実であるということであるということであるということが、それが事実であるということであるということが、それが事実であるということであることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Langevin algorithms are gradient descent methods with additive noise. They
have been used for decades in Markov chain Monte Carlo (MCMC) sampling,
optimization, and learning. Their convergence properties for unconstrained
non-convex optimization and learning problems have been studied widely in the
last few years. Other work has examined projected Langevin algorithms for
sampling from log-concave distributions restricted to convex compact sets. For
learning and optimization, log-concave distributions correspond to convex
losses. In this paper, we analyze the case of non-convex losses with compact
convex constraint sets and IID external data variables. We term the resulting
method the projected stochastic gradient Langevin algorithm (PSGLA). We show
the algorithm achieves a deviation of $O(T^{-1/4}(\log T)^{1/2})$ from its
target distribution in 1-Wasserstein distance. For optimization and learning,
we show that the algorithm achieves $\epsilon$-suboptimal solutions, on
average, provided that it is run for a time that is polynomial in
$\epsilon^{-1}$ and slightly super-exponential in the problem dimension.
- Abstract(参考訳): ランゲヴィンアルゴリズムは付加雑音を伴う勾配降下法である。
マルコフ連鎖モンテカルロ(MCMC)のサンプリング、最適化、学習に何十年も使われてきた。
制約のない非凸最適化と学習問題に対する収束特性は近年広く研究されている。
他の研究では、凸コンパクト集合に制限された対数凹分布からサンプリングするランゲヴィンアルゴリズムを検証している。
学習と最適化のために、対流分布は凸損失に対応する。
本稿では,コンパクトな凸制約セットとIID外部データ変数を用いた非凸損失事例の解析を行う。
提案手法は確率勾配ランゲヴィンアルゴリズム (PSGLA) である。
このアルゴリズムは1-wasserstein距離の目標分布から$o(t^{-1/4}(\log t)^{1/2})の偏差が得られることを示す。
最適化と学習のために、アルゴリズムが平均して$\epsilon$-suboptimalな解を達成することを示し、$\epsilon^{-1}$の多項式であり、問題の次元においてわずかに超指数的であることを仮定する。
関連論文リスト
- Faster Sampling via Stochastic Gradient Proximal Sampler [28.422547264326468]
非log-concave分布からのサンプリングのための近位サンプリング器 (SPS) について検討した。
対象分布への収束性は,アルゴリズムの軌道が有界である限り保証可能であることを示す。
我々は、Langevin dynamics(SGLD)とLangevin-MALAの2つの実装可能な変種を提供し、SPS-SGLDとSPS-MALAを生み出した。
論文 参考訳(メタデータ) (2024-05-27T00:53:18Z) - Robust Sparse Mean Estimation via Sum of Squares [42.526664955704746]
本研究では,高次元スパース平均推定の問題点を,逆数外乱の$epsilon$-fractionの存在下で検討する。
我々のアルゴリズムは、サム・オブ・スクエア(Sum-of-Squares)ベースのアルゴリズムアプローチに従う。
論文 参考訳(メタデータ) (2022-06-07T16:49:54Z) - Accelerated first-order methods for convex optimization with locally
Lipschitz continuous gradient [0.0]
まず,Lipschitz連続勾配 (LLCG) を用いた非拘束凸最適化について検討し,それを解決するための加速近位勾配 (APG) 法を提案する。
提案手法は検証可能な終端基準を備えており、演算複雑性は$cal O(varepsilon-1/2log varepsilon-1)$である。
提案手法の性能を実証するために,予備的な数値計算結果を示す。
論文 参考訳(メタデータ) (2022-06-02T10:34:26Z) - Constrained Langevin Algorithms with L-mixing External Random Variables [0.0]
ランゲヴィンサンプリングアルゴリズムは付加雑音で拡張される。
学習のためのランゲヴィンアルゴリズムの非同化解析は広く研究されている。
ここでは,Langevinアルゴリズムが22点の偏差を達成することを示す。
論文 参考訳(メタデータ) (2022-05-27T18:44:35Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z) - Gradient Free Minimax Optimization: Variance Reduction and Faster
Convergence [120.9336529957224]
本稿では、勾配のないミニマックス最適化問題の大きさを非強設定で表現する。
本稿では,新しいゼロ階分散還元降下アルゴリズムが,クエリの複雑さを最もよく表すことを示す。
論文 参考訳(メタデータ) (2020-06-16T17:55:46Z) - Learning Halfspaces with Tsybakov Noise [50.659479930171585]
テュバコフ雑音の存在下でのハーフスペースの学習可能性について検討する。
真半空間に関して誤分類誤差$epsilon$を達成するアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-06-11T14:25:02Z) - Private Stochastic Convex Optimization: Optimal Rates in Linear Time [74.47681868973598]
本研究では,凸損失関数の分布から得られた個体群損失を最小化する問題について検討する。
Bassilyらによる最近の研究は、$n$のサンプルを与えられた過剰な人口損失の最適境界を確立している。
本稿では,余剰損失に対する最適境界を達成するとともに,$O(minn, n2/d)$グラデーション計算を用いて凸最適化アルゴリズムを導出する2つの新しい手法について述べる。
論文 参考訳(メタデータ) (2020-05-10T19:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。