論文の概要: GIST: Gibbs self-tuning for locally adaptive Hamiltonian Monte Carlo
- arxiv url: http://arxiv.org/abs/2404.15253v3
- Date: Thu, 03 Oct 2024 09:19:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-04 23:28:22.105243
- Title: GIST: Gibbs self-tuning for locally adaptive Hamiltonian Monte Carlo
- Title(参考訳): GIST: 局所適応型ハミルトンモンテカルロのギブズ自習
- Authors: Nawaf Bou-Rabee, Bob Carpenter, Milo Marsden,
- Abstract要約: 本稿では,アルゴリズムのチューニングパラメータを条件付きサンプリングすることで,局所適応型ハミルトン・モンテカルロサンプリング器を構築するための新しいフレームワークを提案する。
経路長を適応的にサンプリングするために、Gibs Self-tuning (GIST) と呼ぶこのフレームワークは、ランダム化されたHMC、マルチミリHMC、No-U-Turn Sampler (NUTS)、Apogee-to-Apogee Path Samplerを特別なケースとして含む。
- 参考スコア(独自算出の注目度): 0.716879432974126
- License:
- Abstract: We introduce a novel and flexible framework for constructing locally adaptive Hamiltonian Monte Carlo (HMC) samplers by Gibbs sampling the algorithm's tuning parameters conditionally based on the position and momentum at each step. For adaptively sampling path lengths, this framework -- which we call Gibbs self-tuning (GIST) -- encompasses randomized HMC, multinomial HMC, the No-U-Turn Sampler (NUTS), and the Apogee-to-Apogee Path Sampler as special cases. The GIST framework is illustrated with a novel alternative to NUTS for locally adapting path lengths, evaluated with an exact Hamiltonian for a high-dimensional, ill-conditioned Gaussian measure and with the leapfrog integrator for a suite of diverse models.
- Abstract(参考訳): 本稿では,各ステップの位置と運動量に基づいてアルゴリズムのチューニングパラメータを条件付きサンプリングすることで,局所適応型ハミルトン・モンテカルロ(HMC)サンプリング器を構築するための,新しいフレキシブルなフレームワークを提案する。
経路長を適応的にサンプリングするために、Gibs Self-tuning (GIST) と呼ぶこのフレームワークは、ランダム化されたHMC、マルチミリHMC、No-U-Turn Sampler (NUTS)、Apogee-to-Apogee Path Samplerを特別なケースとして含む。
GISTフレームワークは、経路長を局所的に適応するためのNUTSの代替として、高次元、不条件のガウス測度に対して正確なハミルトニアンで評価され、様々なモデルに対して跳躍積分器を用いて説明されている。
関連論文リスト
- Gaussian Process Regression with Soft Inequality and Monotonicity Constraints [0.0]
確率的手法で物理制約を強制する新しいGP法を提案する。
このGPモデルは量子に着想を得たハミルトンモンテカルロ(QHMC)によって訓練される
論文 参考訳(メタデータ) (2024-04-03T17:09:25Z) - Non-Gaussian Process Regression [0.0]
我々はGPフレームワークを時間変化したGPの新たなクラスに拡張し、重い尾の非ガウス的振る舞いの簡単なモデリングを可能にする。
このモデルに対するマルコフ連鎖モンテカルロ推論手順を示し、潜在的な利点を実証する。
論文 参考訳(メタデータ) (2022-09-07T13:08:22Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - B\'ezier Curve Gaussian Processes [8.11969931278838]
本稿では,確率的B'ezier曲線上に構築された新しい確率的シーケンスモデルを提案する。
混合密度ネットワークと組み合わせることで、平均場変動近似を必要とせずにベイズ条件推論を行うことができる。
このモデルは歩行者の軌跡予測に使われ、生成した予測はGP前でも機能する。
論文 参考訳(メタデータ) (2022-05-03T19:49:57Z) - Wrapped Distributions on homogeneous Riemannian manifolds [58.720142291102135]
パラメータ、対称性、モダリティなどの分布の性質の制御は、フレキシブルな分布の族を生み出す。
変動型オートエンコーダと潜在空間ネットワークモデル内で提案した分布を利用して,我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2022-04-20T21:25:21Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Deterministic Gibbs Sampling via Ordinary Differential Equations [77.42706423573573]
本稿では,自律的ODEとツールを用いた決定論的測度保存ダイナミクスの一般構築について述べる。
我々は、ハイブリッドモンテカルロや他の決定論的サンプルが、我々の理論の特別な場合としてどのように従うかを示す。
論文 参考訳(メタデータ) (2021-06-18T15:36:09Z) - Invertible Flow Non Equilibrium sampling [10.068677972360318]
逆流非平衡サンプリング(InFine)
InFine は期待値、特に定数の正規化の偏りのない推定器を構成する。
Evidence Lower Bound (ELBO) を構築するために使用でき、新しい変分オートエンコーダ (VAE) クラスにつながります。
論文 参考訳(メタデータ) (2021-03-17T09:09:06Z) - Generative Neural Samplers for the Quantum Heisenberg Chain [0.3655021726150368]
生成神経サンプラーは、統計物理学や量子場理論における問題に対するモンテカルロ法を補完するアプローチを提供する。
本研究は、実世界の低次元スピン系の可観測性を推定する生成神経サンプラーの能力をテストする。
論文 参考訳(メタデータ) (2020-12-18T14:28:13Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Sinkhorn Natural Gradient for Generative Models [125.89871274202439]
本研究では,シンクホーンの発散による確率空間上の最も急降下法として機能するシンクホーン自然勾配(SiNG)アルゴリズムを提案する。
本稿では,SiNG の主要成分であるシンクホーン情報行列 (SIM) が明示的な表現を持ち,対数的スケールの複雑さを正確に評価できることを示す。
本実験では,SiNGと最先端のSGD型解法を定量的に比較し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-11-09T02:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。