論文の概要: Efficient Sampling on Riemannian Manifolds via Langevin MCMC
- arxiv url: http://arxiv.org/abs/2402.10357v1
- Date: Thu, 15 Feb 2024 22:59:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 18:06:43.112470
- Title: Efficient Sampling on Riemannian Manifolds via Langevin MCMC
- Title(参考訳): Langevin MCMCによるリーマン多様体の効率的なサンプリング
- Authors: Xiang Cheng, Jingzhao Zhang, Suvrit Sra
- Abstract要約: 本稿では,Gibs 分布 $d pi* = eh d vol_g$ over aian manifold $M$ via (geometric) Langevin MCMC。
この結果は、$pi*$ が非指数的であり、$Mh$ が負のリッチ曲率を持つような一般的な設定に適用できる。
- 参考スコア(独自算出の注目度): 51.825900634131486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the task of efficiently sampling from a Gibbs distribution $d \pi^*
= e^{-h} d {vol}_g$ over a Riemannian manifold $M$ via (geometric) Langevin
MCMC; this algorithm involves computing exponential maps in random Gaussian
directions and is efficiently implementable in practice. The key to our
analysis of Langevin MCMC is a bound on the discretization error of the
geometric Euler-Murayama scheme, assuming $\nabla h$ is Lipschitz and $M$ has
bounded sectional curvature. Our error bound matches the error of Euclidean
Euler-Murayama in terms of its stepsize dependence. Combined with a contraction
guarantee for the geometric Langevin Diffusion under Kendall-Cranston coupling,
we prove that the Langevin MCMC iterates lie within $\epsilon$-Wasserstein
distance of $\pi^*$ after $\tilde{O}(\epsilon^{-2})$ steps, which matches the
iteration complexity for Euclidean Langevin MCMC. Our results apply in general
settings where $h$ can be nonconvex and $M$ can have negative Ricci curvature.
Under additional assumptions that the Riemannian curvature tensor has bounded
derivatives, and that $\pi^*$ satisfies a $CD(\cdot,\infty)$ condition, we
analyze the stochastic gradient version of Langevin MCMC, and bound its
iteration complexity by $\tilde{O}(\epsilon^{-2})$ as well.
- Abstract(参考訳): ギブス分布 $d \pi^* = e^{-h} d {vol}_g$ over a riemann manifold $m$ via (geometric) langevin mcmc; このアルゴリズムはランダムガウス方向に指数写像を計算し、実際に効率的に実装できる。
ランゲヴィンMCMCの分析の鍵は幾何学的オイラー・ムラヤマスキームの離散化誤差の有界であり、$\nabla h$ はリプシッツであり、$M$ は有界断面曲率を持つと仮定する。
この誤差はユークリッド・オイラー・ムラヤマの段階依存の誤差と一致する。
ケンドール・クランストン結合の下での幾何学的ランゲヴィン拡散の縮約保証と合わせて、ランゲヴィン MCMC が$\epsilon$-Wasserstein distance of $\pi^*$ after $\tilde{O}(\epsilon^{-2})$ steps の範囲内にあることを証明し、ユークリッドランゲヴィン MCMC の反復複雑性と一致する。
我々の結果は一般に、$h$ は非凸であり、$M$ は負のリッチ曲率を持つ。
さらに、リーマン曲率テンソルが有界微分を持ち、$\pi^*$が$CD(\cdot,\infty)$条件を満たすという仮定の下で、Langevin MCMCの確率勾配バージョンを分析し、その反復複雑性を$\tilde{O}(\epsilon^{-2})$で束縛する。
関連論文リスト
- A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Accelerated Methods for Riemannian Min-Max Optimization Ensuring Bounded
Geometric Penalties [21.141544548229774]
我々は$min_x max_y f(x, y) という形式で、$mathcalN$ は Hadamard である。
我々は、勾配収束定数を減少させることにより、グローバルな関心が加速されることを示す。
論文 参考訳(メタデータ) (2023-05-25T15:43:07Z) - Penalized Overdamped and Underdamped Langevin Monte Carlo Algorithms for Constrained Sampling [17.832449046193933]
目的が目標分布である$pi(x)prop ef(x)$から$x$が制約されたときにサンプリングする制約付きサンプリング問題を考える。
ペナルティ法によって動機付けられた制約付き問題を,制約違反に対するペナルティ関数を導入することにより,非制約サンプリング問題に変換する。
PSGLD と PSGULMC の場合、$tildemathcalO(d/varepsilon18)$ が強凸で滑らかであるとき、$tildemathcalO(d/varepsilon) を得る。
論文 参考訳(メタデータ) (2022-11-29T18:43:22Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Multimeasurement Generative Models [7.502947376736449]
我々は、密度$p_X$ in $mathbbRd$を未知分布からサンプリングする問題を学習とサンプリングの問題を$p_mathbfY$ in $mathbbRMd$とする。
論文 参考訳(メタデータ) (2021-12-18T02:11:36Z) - Hardness of Learning Halfspaces with Massart Noise [56.98280399449707]
我々は、マッサート(有界)ノイズの存在下でPAC学習のハーフスペースの複雑さを研究します。
情報理論上最適なエラーとSQアルゴリズムで達成できる最高のエラーとの間に指数関数的なギャップがあることを示した。
論文 参考訳(メタデータ) (2020-12-17T16:43:11Z) - Convergence of Langevin Monte Carlo in Chi-Squared and Renyi Divergence [8.873449722727026]
推定値である$widetildemathcalO(depsilon-1)$が,これらの測定値の既知レートを改善することを示す。
特に凸および1次滑らかなポテンシャルについて、LCCアルゴリズムは、これらの測定値の既知率を改善するために$widetildemathcalO(depsilon-1)$を推定する。
論文 参考訳(メタデータ) (2020-07-22T18:18:28Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Data-driven Efficient Solvers for Langevin Dynamics on Manifold in High
Dimensions [12.005576001523515]
多様体構造を持つ物理系のランゲヴィン力学を$mathcalMsubsetmathbbRp$で研究する。
我々は、多様体 $mathcalN$ 上の対応するフォッカー・プランク方程式を、反応座標 $mathsfy$ の観点から活用する。
このFokker-Planck方程式に対して、実装可能で、無条件で安定な、データ駆動有限体積スキームを提案する。
論文 参考訳(メタデータ) (2020-05-22T16:55:38Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。