論文の概要: Truncated Log-concave Sampling with Reflective Hamiltonian Monte Carlo
- arxiv url: http://arxiv.org/abs/2102.13068v1
- Date: Thu, 25 Feb 2021 18:34:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 13:39:29.236587
- Title: Truncated Log-concave Sampling with Reflective Hamiltonian Monte Carlo
- Title(参考訳): 反射型ハミルトン・モンテカルロを用いたトレンチド・ログ・コンカブ・サンプリング
- Authors: Apostolos Chalkis, Vissarion Fisikopoulos, Marios Papachristou, Elias
Tsigaridas
- Abstract要約: HMCベースのアルゴリズムであるReflective Hamiltonian Monte Carlo(ReHMC)を,凸ポリトープに制限されたログ凹分布からサンプリングする。
暖かいスタートから始まり、よく周されたポリトープのステップを$widetilde O(kappa d2 ell2 log (1 / varepsilon))$で混ぜることを証明する。
実験により、ReHMCは独立したサンプルを作成する必要がある時間に関して、Hit-and-RunとCoordinate-and-Runより優れていることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce Reflective Hamiltonian Monte Carlo (ReHMC), an HMC-based
algorithm, to sample from a log-concave distribution restricted to a convex
polytope. We prove that, starting from a warm start, it mixes in $\widetilde
O(\kappa d^2 \ell^2 \log (1 / \varepsilon))$ steps for a well-rounded polytope,
ignoring logarithmic factors where $\kappa$ is the condition number of the
negative log-density, $d$ is the dimension, $\ell$ is an upper bound on the
number of reflections, and $\varepsilon$ is the accuracy parameter. We also
developed an open source implementation of ReHMC and we performed an
experimental study on various high-dimensional data-sets. Experiments suggest
that ReHMC outperfroms Hit-and-Run and Coordinate-Hit-and-Run regarding the
time it needs to produce an independent sample.
- Abstract(参考訳): HMCベースのアルゴリズムであるReflective Hamiltonian Monte Carlo(ReHMC)を,凸ポリトープに制限されたログ凹分布からサンプリングする。
ウォームスタートから、$\widetilde O(\kappa d^2 \ell^2 \log (1 / \varepsilon))$ steps for a well-rounded polytope,ignoring logarithmic factor where $\kappa$ is the condition number of the negative log-density, $d$ is the dimension, $\ell$ is a upper bound on the reflections and $\varepsilon$ is the accuracy parameter。
また,rehmcのオープンソース実装を開発し,様々な高次元データセットについて実験を行った。
実験の結果、ReHMCは独立したサンプルを作成する必要がある時間に関して、Hit-and-RunとCoordinate-and-Runより優れていることが示唆されている。
関連論文リスト
- Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - Efficient Sampling on Riemannian Manifolds via Langevin MCMC [51.825900634131486]
本稿では,Gibs 分布 $d pi* = eh d vol_g$ over aian manifold $M$ via (geometric) Langevin MCMC。
この結果は、$pi*$ が非指数的であり、$Mh$ が負のリッチ曲率を持つような一般的な設定に適用できる。
論文 参考訳(メタデータ) (2024-02-15T22:59:14Z) - Composite QDrift-Product Formulas for Quantum and Classical Simulations
in Real and Imaginary Time [0.18374319565577155]
最近の研究は、与えられたシミュレーション問題に対してハミルトニアン$H$をサブセットに分割する合成チャネルを実装するのが有利であることを示した。
このアプローチは想像上の時間で成り立ち、量子モンテカルロ計算の古典的アルゴリズムの候補となる。
一定の誤差耐性を満たすために,$e-iH_j t$および$e-H_j beta$のゲート数を数えることにより,アルゴリズムコストの正確な数値シミュレーションを行う。
論文 参考訳(メタデータ) (2023-06-28T21:31:26Z) - Near Sample-Optimal Reduction-based Policy Learning for Average Reward
MDP [58.13930707612128]
この研究は、平均報酬マルコフ決定過程(AMDP)における$varepsilon$-Optimal Policyを得る際のサンプルの複雑さを考察する。
我々は、状態-作用対当たりの$widetilde O(H varepsilon-3 ln frac1delta)$サンプルを証明し、$H := sp(h*)$は任意の最適ポリシーのバイアスのスパンであり、$varepsilon$は精度、$delta$は失敗確率である。
論文 参考訳(メタデータ) (2022-12-01T15:57:58Z) - Hamiltonian Monte Carlo for efficient Gaussian sampling: long and random
steps [0.0]
Hamiltonian Monte Carlo (HMC) は密度$e-f(x)$の高次元分布からサンプリングするマルコフ連鎖アルゴリズムである。
HMCは,$widetildeO(sqrtkappa d1/4 log(1/varepsilon)$グラデーションクエリを用いて,全変動距離で$varepsilon$-closeの分布からサンプリングできることを示す。
論文 参考訳(メタデータ) (2022-09-26T15:29:29Z) - Accelerating Hamiltonian Monte Carlo via Chebyshev Integration Time [13.427128424538502]
ハミルトニアンのモンテカルロ (HMC) はサンプリングにおいて一般的な方法である。
そこで我々は,Chebyshevsのルーツに基づく時間変化積分時間スキームを提案する。
論文 参考訳(メタデータ) (2022-07-05T17:42:22Z) - Settling the Sample Complexity of Model-Based Offline Reinforcement
Learning [50.5790774201146]
オフライン強化学習(RL)は、事前収集されたデータを用いて、さらなる探索を行わずに学習する。
事前のアルゴリズムや分析は、最適なサンプルの複雑さに悩まされるか、サンプルの最適性に到達するために高いバーンインコストがかかるかのいずれかである。
モデルベース(あるいは"プラグイン")アプローチは,バーンインコストを伴わずに,最小限のサンプル複雑性を実現することを実証する。
論文 参考訳(メタデータ) (2022-04-11T17:26:19Z) - An Introduction to Hamiltonian Monte Carlo Method for Sampling [26.555110725656963]
Hamiltonian Monte Carlo (HMC) は、Gibs密度$pi(x)propto e-f(x)$からサンプリングするハミルトン力学に着想を得たアルゴリズムである。
理想化された HMC は$pi$ を保持し、$f$ が強く凸かつ滑らかなときにその収束を確立する。
論文 参考訳(メタデータ) (2021-08-27T03:28:20Z) - Mixing Time Guarantees for Unadjusted Hamiltonian Monte Carlo [1.14219428942199]
私たちは、調整されていないハミルトンモンテカルロ(uHMC)アルゴリズムに対応するマルコフ鎖の総変動混合時間に関する定量的な上限を提供します。
2つの一般的なモデルのクラスと固定時間離散化ステップサイズ$h$ に対して、混合時間は次元に対数的にのみ依存することが示される。
UHMCにより,目標分布の精度を$varepsilon$-accurate approximation of the target distribution $mu$ in total variation distanceを実現できることを示す。
論文 参考訳(メタデータ) (2021-05-03T14:13:47Z) - A New Framework for Variance-Reduced Hamiltonian Monte Carlo [88.84622104944503]
分散還元型ハミルトン・モンテカルロ法 (HMC) の新たなフレームワークを提案し,$L$-smooth および $m$-strongly log-concave 分布からサンプリングする。
本研究では,SAGA法やSVRG法をベースとした非バイアス勾配推定器を用いて,バッチサイズを小さくすることで,高い勾配効率が得られることを示す。
総合的および実世界のベンチマークデータによる実験結果から、我々の新しいフレームワークは、完全な勾配と勾配HMCアプローチを著しく上回っていることが示された。
論文 参考訳(メタデータ) (2021-02-09T02:44:24Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。