論文の概要: Sampling from multimodal distributions with warm starts: Non-asymptotic bounds for the Reweighted Annealed Leap-Point Sampler
- arxiv url: http://arxiv.org/abs/2512.17977v1
- Date: Fri, 19 Dec 2025 12:11:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.132556
- Title: Sampling from multimodal distributions with warm starts: Non-asymptotic bounds for the Reweighted Annealed Leap-Point Sampler
- Title(参考訳): ウォームスタートを伴うマルチモーダル分布からのサンプリング:Reweighted Annealed Leap-Point Samplerの非漸近境界
- Authors: Holden Lee, Matheau Santana-Gijzen,
- Abstract要約: 本稿では,Annealed Leap-Point Sampler (ALPS) を改良した Reweighted ALPS (Re-ALPS) を紹介する。
温かい開始点を中心とする混合点に傾いた分布を定義し,最も寒冷なレベルでは,温かい開始点間のテレポーテーションを用いて,モード間の効率的な混合を可能にする。
ALPSとは対照的に,本手法ではモードでのヘッセン情報を必要とせず,モンテカルロによる成分分割関数を推定する。
- 参考スコア(独自算出の注目度): 10.161956880665734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sampling from multimodal distributions is a central challenge in Bayesian inference and machine learning. In light of hardness results for sampling -- classical MCMC methods, even with tempering, can suffer from exponential mixing times -- a natural question is how to leverage additional information, such as a warm start point for each mode, to enable faster mixing across modes. To address this, we introduce Reweighted ALPS (Re-ALPS), a modified version of the Annealed Leap-Point Sampler (ALPS) that dispenses with the Gaussian approximation assumption. We prove the first polynomial-time bound that works in a general setting, under a natural assumption that each component contains significant mass relative to the others when tilted towards the corresponding warm start point. Similarly to ALPS, we define distributions tilted towards a mixture centered at the warm start points, and at the coldest level, use teleportation between warm start points to enable efficient mixing across modes. In contrast to ALPS, our method does not require Hessian information at the modes, but instead estimates component partition functions via Monte Carlo. This additional estimation step is crucial in allowing the algorithm to handle target distributions with more complex geometries besides approximate Gaussian. For the proof, we show convergence results for Markov processes when only part of the stationary distribution is well-mixing and estimation for partition functions for individual components of a mixture. We numerically evaluate our algorithm's mixing performance compared to ALPS on a mixture of heavy-tailed distributions.
- Abstract(参考訳): マルチモーダル分布からのサンプリングはベイズ推論と機械学習における中心的な課題である。
サンプリングのための硬度結果(古典的なMCMC手法は、テンパリングであっても指数的な混合時間に悩まされる可能性がある)を考えると、自然の疑問は、各モードの温かいスタートポイントのような追加情報をどのように活用して、モード間の高速な混合を可能にするかである。
これを解決するために、ガウス近似の仮定を省略したAnnealed Leap-Point Sampler (ALPS) の修正版であるReweighted ALPS(Re-ALPS)を導入する。
一般設定で機能する最初の多項式時間境界は、各成分が対応する温かい開始点に向かって傾くとき、他の成分と比較して大きな質量を持つという自然な仮定の下で証明する。
ALPSと同様に、暖かい開始点を中心とする混合点に傾いた分布を定義し、最も寒冷なレベルでは、温かい開始点間のテレポーテーションを用いて、モード間の効率的な混合を可能にする。
ALPSとは対照的に,本手法ではモードでのヘッセン情報を必要とせず,モンテカルロによる成分分割関数を推定する。
この追加的な推定ステップは、近似ガウスの他に、より複雑なジオメトリーでターゲット分布を処理できるようにするために重要である。
本証明では, 定常分布の一部のみが十分に混合されている場合のマルコフ過程の収束結果と, 混合の個々の成分に対する分配関数の推定について述べる。
重み付き分布の混合におけるALPSと比較して,アルゴリズムの混合性能を数値的に評価する。
関連論文リスト
- Mixtures Closest to a Given Measure: A Semidefinite Programming Approach [1.7969777786551424]
対象測度を有限個のモーメントでしか利用できない問題について検討する。
既存の多くのアプローチとは異なり、パラメータ集合は有限ではないと仮定される。
クラスタリングには,スタンドアローンのメソッドとして,あるいは前処理のステップとして,フレームワークが機能するアプリケーションを提案する。
論文 参考訳(メタデータ) (2025-09-26T19:51:21Z) - Bouncy particle sampler with infinite exchanging parallel tempering [0.0]
後方分布を近似するために,変分ベイズ推定法やサンプリング法を用いる。
均一な線形運動と反射を組み合わせてサンプリングを行うバウンシー粒子サンプリング器 (BPS) が提案されている。
シミュレーションを行い,マルチモーダル分布の有効性を実証した。
論文 参考訳(メタデータ) (2025-09-02T06:37:57Z) - Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts [64.34482582690927]
事前学習したスコアベースモデルから得られた熱処理, 幾何平均, 製品分布の配列から, 効率的かつ原理的に抽出する方法を提供する。
本稿では,サンプリング品質を向上させるために,推論時間スケーリングを利用する逐次モンテカルロ(SMC)再サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-04T17:46:51Z) - Sampling from multi-modal distributions with polynomial query complexity in fixed dimension via reverse diffusion [16.463220658992064]
分布の幅広いクラスに対する最初のサンプリングアルゴリズムを提供する。
我々のアルゴリズムは時間反転拡散過程をシミュレートする。
メタスタビリティを回避し、モード位置に関する事前の知識を必要とせず、よく知られた対数平滑性仮定を緩和する。
論文 参考訳(メタデータ) (2024-12-31T17:51:39Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Interpolating between sampling and variational inference with infinite
stochastic mixtures [6.021787236982659]
サンプリングと変分推論(VI)は相補的な強度を持つ近似推論の方法の2つの大きなファミリーである。
本稿では,サンプリングとVIの双方の強度のバランスをとる中間アルゴリズムを構築するためのフレームワークを開発する。
この研究は、サンプリングとVIの相補的な強みを組み合わせた、非常に柔軟で単純な推論手法の族への第一歩である。
論文 参考訳(メタデータ) (2021-10-18T20:50:06Z) - Sampling in Combinatorial Spaces with SurVAE Flow Augmented MCMC [83.48593305367523]
ハイブリッドモンテカルロ(Hybrid Monte Carlo)は、複素連続分布からサンプリングする強力なマルコフ連鎖モンテカルロ法である。
本稿では,SurVAEフローを用いたモンテカルロ法の拡張に基づく新しい手法を提案する。
本稿では,統計学,計算物理学,機械学習など,様々な分野におけるアルゴリズムの有効性を実証し,代替アルゴリズムと比較した改良点を考察する。
論文 参考訳(メタデータ) (2021-02-04T02:21:08Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - Pathwise Conditioning of Gaussian Processes [72.61885354624604]
ガウス過程後部をシミュレーションするための従来のアプローチでは、有限個の入力位置のプロセス値の限界分布からサンプルを抽出する。
この分布中心の特徴づけは、所望のランダムベクトルのサイズで3次スケールする生成戦略をもたらす。
条件付けのこのパスワイズ解釈が、ガウス過程の後部を効率的にサンプリングするのに役立てる近似の一般族をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2020-11-08T17:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。