論文の概要: Fast sampling and model selection for Bayesian mixture models
- arxiv url: http://arxiv.org/abs/2501.07668v1
- Date: Mon, 13 Jan 2025 19:58:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:28:52.183928
- Title: Fast sampling and model selection for Bayesian mixture models
- Title(参考訳): ベイズ混合モデルの高速サンプリングとモデル選択
- Authors: M. E. J. Newman,
- Abstract要約: ベイズ混合モデルの積分後続分布からサンプリングする2つのモンテカルロアルゴリズムについて述べる。
最初のアルゴリズムは従来の崩壊したギブスのサンプルであり、異常な動きがある。
2つ目は最初の部分の上に構築され、以前のオーバーコンポーネントの割り当てからリジェクションなしのサンプリングを追加する。
- 参考スコア(独自算出の注目度): 0.6345523830122168
- License:
- Abstract: We describe two Monte Carlo algorithms for sampling from the integrated posterior distributions of a range of Bayesian mixture models. Both algorithms allow us to directly sample not only the assignment of observations to components but also the number of components, thereby fitting the model and performing model selection over the number of components in a single computation. The first algorithm is a traditional collapsed Gibbs sampler, albeit with an unusual move-set; the second builds on the first, adding rejection-free sampling from the prior over component assignments, to create an algorithm that has excellent mixing time in typical applications and outperforms current state-of-the-art methods, in some cases by a wide margin. We demonstrate our methods with a selection of applications to latent class analysis.
- Abstract(参考訳): ベイズ混合モデルの積分後続分布からサンプリングする2つのモンテカルロアルゴリズムについて述べる。
どちらのアルゴリズムも、コンポーネントへの観測の割り当てだけでなく、コンポーネントの数も直接サンプリングすることができ、モデルに適合し、1つの計算でコンポーネントの数に対してモデル選択を行うことができます。
第1のアルゴリズムは従来の崩壊したギブスサンプリングであり、異例の移動セットを持つが、第2のアルゴリズムは第1のアルゴリズムの上に構築され、以前のオーバーコンポーネントの割り当てから拒絶しないサンプリングを追加し、典型的なアプリケーションでは優れた混合時間を持ち、場合によっては最先端の手法よりも優れたアルゴリズムを生成する。
我々は,潜在クラス分析に応用した手法を実証する。
関連論文リスト
- Unified Convergence Analysis for Score-Based Diffusion Models with Deterministic Samplers [49.1574468325115]
決定論的サンプリングのための統合収束分析フレームワークを提案する。
我々のフレームワークは$tilde O(d2/epsilon)$の反復複雑性を実現する。
また,Denoising Implicit Diffusion Models (DDIM) タイプのサンプルについて詳細な分析を行った。
論文 参考訳(メタデータ) (2024-10-18T07:37:36Z) - You Only Accept Samples Once: Fast, Self-Correcting Stochastic Variational Inference [0.0]
YOASOVI(ヨアソビ)は、ベイズ系大規模モデルにおける変分推論(VI)の高速で自己補正的な直観最適化を行うアルゴリズムである。
これを実現するために、各イテレーションで VI に使用される目的関数について利用可能な情報を活用し、通常のモンテカルロサンプリングを受け入れサンプリングに置き換える。
論文 参考訳(メタデータ) (2024-06-05T01:28:53Z) - Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Dimension-free mixing times of Gibbs samplers for Bayesian hierarchical
models [0.0]
階層モデルを対象としたギブス試料の総変動混合時間の挙動を解析した。
2段階モデルの幅広いクラスに対するランダムなデータ生成仮定の下で収束結果を得る。
論文 参考訳(メタデータ) (2023-04-14T08:30:40Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Direct sampling of projected entangled-pair states [0.0]
投射的絡み合ったペア状態(PEPS)を用いたモンテカルロ変分法(英語版)の研究は、長年の疑問に対する回答を提示できることを最近示した。
本稿では,PEPSから独立したサンプルを生成するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-15T15:09:20Z) - Finding Geometric Models by Clustering in the Consensus Space [61.65661010039768]
本稿では,未知数の幾何学的モデル,例えばホモグラフィーを求めるアルゴリズムを提案する。
複数の幾何モデルを用いることで精度が向上するアプリケーションをいくつか提示する。
これには、複数の一般化されたホモグラフからのポーズ推定、高速移動物体の軌道推定が含まれる。
論文 参考訳(メタデータ) (2021-03-25T14:35:07Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。