論文の概要: Spectral gap of Metropolis-within-Gibbs under log-concavity
- arxiv url: http://arxiv.org/abs/2509.26175v1
- Date: Tue, 30 Sep 2025 12:31:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.53598
- Title: Spectral gap of Metropolis-within-Gibbs under log-concavity
- Title(参考訳): 対数共振下におけるメトロポリス・ウィスティン・ギブズのスペクトルギャップ
- Authors: Cecilia Secchi, Giacomo Zanella,
- Abstract要約: MwG(Metropolis-within-Gibbs)アルゴリズムは、高次元分布からサンプリングするためのマルコフ連鎖モンテカルロ法である。
我々は,MwGをRandom Walk Metropolis (RWM) 更新を用いて検討し,目標の条件変動に合わせるように調整された提案分散を用いて検討した。
その結果,MwGは分散適応型提案とかなり高速な混合が可能であり,その混合性能はギブスサンプリング器よりもわずかに劣ることがわかった。
- 参考スコア(独自算出の注目度): 1.4466802614938334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Metropolis-within-Gibbs (MwG) algorithm is a widely used Markov Chain Monte Carlo method for sampling from high-dimensional distributions when exact conditional sampling is intractable. We study MwG with Random Walk Metropolis (RWM) updates, using proposal variances tuned to match the target's conditional variances. Assuming the target $\pi$ is a $d$-dimensional log-concave distribution with condition number $\kappa$, we establish a spectral gap lower bound of order $\mathcal{O}(1/\kappa d)$ for the random-scan version of MwG, improving on the previously available $\mathcal{O}(1/\kappa^2 d)$ bound. This is obtained by developing sharp estimates of the conductance of one-dimensional RWM kernels, which can be of independent interest. The result shows that MwG can mix substantially faster with variance-adaptive proposals and that its mixing performance is just a constant factor worse than that of the exact Gibbs sampler, thus providing theoretical support to previously observed empirical behavior.
- Abstract(参考訳): MwG(Metropolis-within-Gibbs)アルゴリズムは、正確な条件付きサンプリングを行う際に高次元分布からサンプリングするためのマルコフ・チェイン・モンテカルロ法である。
我々は,MwGをRandom Walk Metropolis (RWM) 更新を用いて検討し,目標の条件変動に合わせるように調整された提案分散を用いて検討した。
ターゲット $\pi$ が条件番号 $\kappa$ を持つ$d$次元の対数対数分布であると仮定すると、MwG のランダムスキャン版に対して、$\mathcal{O}(1/\kappa d)$ のスペクトルギャップ下界を確立し、これまで利用可能な $\mathcal{O}(1/\kappa^2 d)$ 境界を改善している。
これは、1次元RWM核のコンダクタンスを鋭く推定することで得られる。
その結果、MwGは分散適応型提案とほぼ高速に混合でき、その混合性能はギブスサンプリング器よりもわずかに悪いので、これまで観察された経験的挙動を理論的に支持できることがわかった。
関連論文リスト
- Entropy contraction of the Gibbs sampler under log-concavity [0.16385815610837165]
ランダムスキャンギブスサンプリング器は相対エントロピーで収縮し、関連する収縮率を鋭く評価する。
我々の手法は多用途であり、Metropolis-within-GibbsスキームやHit-and-Runアルゴリズムにまで拡張されている。
論文 参考訳(メタデータ) (2024-10-01T16:50:36Z) - Provable Benefit of Annealed Langevin Monte Carlo for Non-log-concave Sampling [28.931489333515618]
簡単なアンニール型Langevin Monte Carloアルゴリズムに対して$widetildeOleft(fracdbeta2cal A2varepsilon6right)のオラクル複雑性を確立する。
例えば、$cal A$ は対象分布 $pi$ と容易にサンプリング可能な分布を補間する確率測度の曲線の作用を表す。
論文 参考訳(メタデータ) (2024-07-24T02:15:48Z) - Variance Reduction for the Independent Metropolis Sampler [11.074080383657453]
我々は、$pi$がKL分散の下で別の密度$q$に十分近い場合、$pi$からサンプルを得る独立したサンプリング器は、$pi$からサンプリングするi.d.よりも小さな分散を達成することを証明した。
提案手法は,KLの目標との偏差が低減されるように,提案密度に適応する適応型独立メトロポリスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-25T16:38:53Z) - Stochastic Approximation Approaches to Group Distributionally Robust Optimization and Beyond [89.72693227960274]
本稿では,グループ分散ロバスト最適化 (GDRO) を,$m$以上の異なる分布をうまく処理するモデルを学習する目的で検討する。
各ラウンドのサンプル数を$m$から1に抑えるため、GDROを2人でプレイするゲームとして、一方のプレイヤーが実行し、他方のプレイヤーが非公開のマルチアームバンディットのオンラインアルゴリズムを実行する。
第2のシナリオでは、最大リスクではなく、平均的最上位k$リスクを最適化し、分散の影響を軽減することを提案する。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。