論文の概要: A Bayesian approach to learning mixtures of nonparametric components
- arxiv url: http://arxiv.org/abs/2512.12988v1
- Date: Mon, 15 Dec 2025 05:27:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.542105
- Title: A Bayesian approach to learning mixtures of nonparametric components
- Title(参考訳): 非パラメトリック成分の混合学習に対するベイズ的アプローチ
- Authors: Yilei Zhang, Yun Wei, Aritra Guha, XuanLong Nguyen,
- Abstract要約: 多くの応用において、潜在サブポピュレーション分布に対するパラメトリックな仮定は非現実的である。
ベイズ的非パラメトリックモデリング手法を用いて,非パラメトリック混合成分の有限混合について検討した。
- 参考スコア(独自算出の注目度): 12.42953971157138
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Mixture models are widely used in modeling heterogeneous data populations. A standard approach of mixture modeling is to assume that the mixture component takes a parametric kernel form, while the flexibility of the model can be obtained by using a large or possibly unbounded number of such parametric kernels. In many applications, making parametric assumptions on the latent subpopulation distributions may be unrealistic, which motivates the need for nonparametric modeling of the mixture components themselves. In this paper we study finite mixtures with nonparametric mixture components, using a Bayesian nonparametric modeling approach. In particular, it is assumed that the data population is generated according to a finite mixture of latent component distributions, where each component is endowed with a Bayesian nonparametric prior such as the Dirichlet process mixture. We present conditions under which the individual mixture component's distributions can be identified, and establish posterior contraction behavior for the data population's density, as well as densities of the latent mixture components. We develop an efficient MCMC algorithm for posterior inference and demonstrate via simulation studies and real-world data illustrations that it is possible to efficiently learn complex distributions for the latent subpopulations. In theory, the posterior contraction rate of the component densities is nearly polynomial, which is a significant improvement over the logarithm convergence rate of estimating mixing measures via deconvolution.
- Abstract(参考訳): 混合モデルは異種データ集団のモデリングに広く用いられている。
混合モデリングの標準的なアプローチは、混合成分がパラメトリックカーネル形式を取ると仮定することであり、一方モデルの柔軟性は、そのようなパラメトリックカーネルの大きなあるいはおそらく非有界な数を用いて得ることができる。
多くの応用において、潜在サブポピュレーション分布に対するパラメトリックな仮定は非現実的であり、これは混合成分自体の非パラメトリックなモデリングの必要性を動機付けている。
本稿ではベイズ的非パラメトリックモデリング手法を用いて,非パラメトリック混合成分との有限混合について検討する。
特に、データ人口は、ディリクレ過程の混合のようなベイズ非パラメトリックな先行成分を各成分に与える、潜在成分分布の有限混合に基づいて生成されると仮定する。
本稿では,各混合成分の分布を同定し,データ集団密度に対する後部収縮挙動と潜在混合成分の密度を確立する条件を提案する。
我々は, 後部推論のための効率的なMCMCアルゴリズムを開発し, シミュレーション研究や実世界のデータイラストを通じて, 潜伏するサブ集団の複雑な分布を効率的に学習できることを実証する。
理論上、成分密度の後方収縮速度はほぼ多項式であり、これはデコンボリューションによる混合測度の推定の対数収束率よりも大幅に改善される。
関連論文リスト
- Amortized Bayesian Mixture Models [1.3976439685325095]
本稿では,混合モデルに適したABI(Amortized Bayesian Inference)の拡張について紹介する。
我々は、後部をパラメータの分布と(カテゴリー的な)混合指標の分布に分解し、生成ニューラルネットワークの組み合わせを利用できるようにする。
提案フレームワークは、独立混合モデルと依存混合モデルの両方に対応し、フィルタリングと平滑化を可能にする。
論文 参考訳(メタデータ) (2025-01-17T14:51:03Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Fitting large mixture models using stochastic component selection [0.0]
本稿では,少数のコンポーネントのみを評価するために,計算とメトロポリス・ハスティングスアルゴリズムの期待値の組み合わせを提案する。
コンポーネント割り当てのマルコフ連鎖は、アルゴリズムのイテレーション間で順次生成される。
提案手法の一般性を重視し,浅い混合モデルと深い混合モデルの両方を訓練する能力を備える。
論文 参考訳(メタデータ) (2021-10-10T12:39:53Z) - A similarity-based Bayesian mixture-of-experts model [0.5156484100374058]
多変量回帰問題に対する新しい非パラメトリック混合実験モデルを提案する。
条件付きモデルを用いて、サンプル外入力の予測は、観測された各データポイントと類似性に基づいて行われる。
混合物のパラメータと距離測定値に基づいて後部推論を行う。
論文 参考訳(メタデータ) (2020-12-03T18:08:30Z) - Consistent Estimation of Identifiable Nonparametric Mixture Models from
Grouped Observations [84.81435917024983]
この研究は、グループ化された観測から任意の同定可能な混合モデルを一貫して推定するアルゴリズムを提案する。
ペア化された観測のために実践的な実装が提供され、アプローチは既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-12T20:44:22Z) - Uniform Convergence Rates for Maximum Likelihood Estimation under
Two-Component Gaussian Mixture Models [13.769786711365104]
パラメータ推定のための最大極大推定器と最小極小境界に対する一様収束率を導出する。
混合成分の混合割合は, 既知, 固定されていると仮定するが, 混合成分の分離仮定は行わない。
論文 参考訳(メタデータ) (2020-06-01T04:13:48Z) - Repulsive Mixture Models of Exponential Family PCA for Clustering [127.90219303669006]
指数関数型家族主成分分析(EPCA)の混合拡張は、従来のEPCAよりもデータ分布に関する構造情報を符号化するように設計された。
従来のEPCAの混合は、モデルの冗長性、すなわち混合成分間の重なりが問題であり、データクラスタリングの曖昧さを引き起こす可能性がある。
本稿では, 混合成分間での反発性増感前処理を導入し, ベイズ式に分散EPCA混合(DEPCAM)モデルを開発した。
論文 参考訳(メタデータ) (2020-04-07T04:07:29Z) - Distributed, partially collapsed MCMC for Bayesian Nonparametrics [68.5279360794418]
ディリクレ法やベータ・ベルヌーリ法のようなモデルでよく用いられる完全無作為測度は独立な部分測度に分解可能であるという事実を利用する。
この分解を用いて、潜在測度を、インスタンス化された成分のみを含む有限測度と、他のすべての成分を含む無限測度に分割する。
得られたハイブリッドアルゴリズムは、収束保証を犠牲にすることなくスケーラブルな推論を可能にすることができる。
論文 参考訳(メタデータ) (2020-01-15T23:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。