論文の概要: Dimension-free mixing times of Gibbs samplers for Bayesian hierarchical
models
- arxiv url: http://arxiv.org/abs/2304.06993v2
- Date: Mon, 30 Oct 2023 10:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 03:03:23.072852
- Title: Dimension-free mixing times of Gibbs samplers for Bayesian hierarchical
models
- Title(参考訳): ベイズ階層モデルのためのギブスサンプラーの次元自由混合時間
- Authors: Filippo Ascolani and Giacomo Zanella
- Abstract要約: 階層モデルを対象としたギブス試料の総変動混合時間の挙動を解析した。
2段階モデルの幅広いクラスに対するランダムなデータ生成仮定の下で収束結果を得る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gibbs samplers are popular algorithms to approximate posterior distributions
arising from Bayesian hierarchical models. Despite their popularity and good
empirical performances, however, there are still relatively few quantitative
results on their convergence properties, e.g. much less than for gradient-based
sampling methods. In this work we analyse the behaviour of total variation
mixing times of Gibbs samplers targeting hierarchical models using tools from
Bayesian asymptotics. We obtain dimension-free convergence results under random
data-generating assumptions, for a broad class of two-level models with generic
likelihood function. Specific examples with Gaussian, binomial and categorical
likelihoods are discussed.
- Abstract(参考訳): ギブズサンプリングはベイズ階層モデルから生じる後続分布を近似する一般的なアルゴリズムである。
しかし、その人気と優れた経験的性能にもかかわらず、勾配に基づくサンプリング法よりもはるかに少ないような収束特性に関する定量的な結果はまだ少ない。
本研究は,ベイズ漸近学のツールを用いた階層モデルを対象としたギブスサンプルの総変動混合時間の挙動を解析する。
一般確率関数を持つ2レベルモデルの広いクラスに対して、ランダムなデータ生成仮定の下で次元自由収束結果を得る。
ガウス的、二項的、カテゴリー的可能性に関する具体例を論じる。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Approximate Gibbs Sampler for Efficient Inference of Hierarchical Bayesian Models for Grouped Count Data [0.0]
本研究は、推定精度を維持しつつ、HBPRMを効率的に学習するための近似ギブスサンプリング器(AGS)を開発した。
実データと合成データを用いた数値実験により,AGSの優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T21:00:55Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Oops I Took A Gradient: Scalable Sampling for Discrete Distributions [53.3142984019796]
このアプローチは、多くの困難な設定において、ジェネリックサンプリングよりも優れていることを示す。
また,高次元離散データを用いた深部エネルギーモデルトレーニングのための改良型サンプリング器についても実演した。
論文 参考訳(メタデータ) (2021-02-08T20:08:50Z) - Multilevel Gibbs Sampling for Bayesian Regression [6.2997667081978825]
データ行列のレベル階層は、データ行列の特徴やサンプルをクラスタリングすることによって作成されます。
マルコフ連鎖の収束を改善するために, 相関試料を用いた分散還元について検討した。
スピードアップは、予測性能に大きな損失を被ることなく、ほぼすべてに対して達成される。
論文 参考訳(メタデータ) (2020-09-25T11:18:17Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z) - Particle-Gibbs Sampling For Bayesian Feature Allocation Models [77.57285768500225]
最も広く使われているMCMC戦略は、特徴割り当て行列のギブス更新に頼っている。
単一移動で特徴割り当て行列の全行を更新できるギブスサンプリング器を開発した。
このサンプルは、計算複雑性が特徴数で指数関数的にスケールするにつれて、多数の特徴を持つモデルにとって実用的ではない。
我々は,行ワイズギブズ更新と同じ分布を目標としたパーティクルギブズサンプルの開発を行うが,特徴数でのみ線形に増大する計算複雑性を有する。
論文 参考訳(メタデータ) (2020-01-25T22:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。