論文の概要: Clustering consistency with Dirichlet process mixtures
- arxiv url: http://arxiv.org/abs/2205.12924v1
- Date: Wed, 25 May 2022 17:21:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 16:24:32.288754
- Title: Clustering consistency with Dirichlet process mixtures
- Title(参考訳): dirichletプロセス混合によるクラスタリング一貫性
- Authors: Filippo Ascolani, Antonio Lijoi, Giovanni Rebaudo, Giacomo Zanella
- Abstract要約: 試料径が大きくなるにつれて, ディリクレ法により誘導される後部分布について検討した。
濃度パラメータが完全にベイズ的に適合すれば,クラスタ数の整合性が得られることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dirichlet process mixtures are flexible non-parametric models, particularly
suited to density estimation and probabilistic clustering. In this work we
study the posterior distribution induced by Dirichlet process mixtures as the
sample size increases, and more specifically focus on consistency for the
unknown number of clusters when the observed data are generated from a finite
mixture. Crucially, we consider the situation where a prior is placed on the
concentration parameter of the underlying Dirichlet process. Previous findings
in the literature suggest that Dirichlet process mixtures are typically not
consistent for the number of clusters if the concentration parameter is held
fixed and data come from a finite mixture. Here we show that consistency for
the number of clusters can be achieved if the concentration parameter is
adapted in a fully Bayesian way, as commonly done in practice. Our results are
derived for data coming from a class of finite mixtures, with mild assumptions
on the prior for the concentration parameter and for a variety of choices of
likelihood kernels for the mixture.
- Abstract(参考訳): ディリクレ過程の混合はフレキシブルな非パラメトリックモデルであり、特に密度推定や確率的クラスタリングに適している。
本研究では,サンプルサイズが増加するにつれてディリクレプロセス混合物が引き起こす後方分布について検討し,有限混合から観測データを生成する場合の未知数のクラスターの一貫性に着目した。
重要なのは,基礎となるディリクレ過程の濃度パラメータに事前値を置く状況を考えることである。
この文献の以前の発見は、濃度パラメータが固定され、データが有限混合から来る場合、ディリクレ過程の混合物は典型的にはクラスターの数に対して整合性がないことを示唆している。
ここでは、一般的に行われているように、濃度パラメータが完全にベイズ的に適合すれば、クラスタ数の一貫性が得られることを示す。
実験結果は,有限混合のクラスから得られたデータから導出され,濃度パラメータの事前の仮定や,混合の確率核の多種多様な選択が得られた。
関連論文リスト
- Summarizing Bayesian Nonparametric Mixture Posterior -- Sliced Optimal Transport Metrics for Gaussian Mixtures [10.694077392690447]
混合モデルの後方推論を要約する既存の方法は、クラスタリングのための暗黙のランダムパーティションの点推定を同定することに焦点を当てている。
本研究では,非パラメトリックベイズ混合モデルにおける後部推論を要約し,混合度(または混合度)の密度推定を推論対象として優先順位付けする手法を提案する。
論文 参考訳(メタデータ) (2024-11-22T02:15:38Z) - Clustering Based on Density Propagation and Subcluster Merging [92.15924057172195]
本稿では,クラスタ数を自動的に決定し,データ空間とグラフ空間の両方に適用可能な密度に基づくノードクラスタリング手法を提案する。
二つのノード間の距離を計算する従来の密度クラスタリング法とは異なり,提案手法は伝播過程を通じて密度を決定する。
論文 参考訳(メタデータ) (2024-11-04T04:09:36Z) - Empirical Density Estimation based on Spline Quasi-Interpolation with
applications to Copulas clustering modeling [0.0]
密度推定は、様々な分野において、基礎となるデータの分布をモデル化し理解するための基礎的な手法である。
本稿では,擬似補間による密度の単変量近似を提案する。
提案アルゴリズムは人工データセットと実データセットで検証される。
論文 参考訳(メタデータ) (2024-02-18T11:49:38Z) - Semantic Equivariant Mixup [54.734054770032934]
Mixupは、トレーニング分布を拡張し、ニューラルネットワークを正規化する、確立されたデータ拡張テクニックである。
以前のミックスアップの変種はラベル関連の情報に過度に焦点をあてる傾向がある。
入力中のよりリッチな意味情報を保存するための意味的同変混合(sem)を提案する。
論文 参考訳(メタデータ) (2023-08-12T03:05:53Z) - Joint Probability Estimation Using Tensor Decomposition and Dictionaries [3.4720326275851994]
本研究では, 与えられた離散確率と連続確率変数の連立確率の非パラメトリック推定を, それらの(経験的推定)2次元境界値から検討した。
我々は、データを調べて分布の様々なファミリーの辞書を作成し、それを混合した製品の各分解因子を近似するために利用する。
論文 参考訳(メタデータ) (2022-03-03T11:55:51Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Density Ratio Estimation via Infinitesimal Classification [85.08255198145304]
そこで我々は, DRE-inftyを提案する。 DRE-inftyは, 密度比推定(DRE)を, より簡単なサブプロブレムに還元する手法である。
モンテカルロ法にインスパイアされ、中間ブリッジ分布の無限連続体を介して2つの分布の間を滑らかに補間する。
提案手法は,複雑な高次元データセット上での相互情報推定やエネルギーベースモデリングなどの下流タスクにおいて良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-22T06:26:29Z) - Consistent Estimation of Identifiable Nonparametric Mixture Models from
Grouped Observations [84.81435917024983]
この研究は、グループ化された観測から任意の同定可能な混合モデルを一貫して推定するアルゴリズムを提案する。
ペア化された観測のために実践的な実装が提供され、アプローチは既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-12T20:44:22Z) - Uniform Convergence Rates for Maximum Likelihood Estimation under
Two-Component Gaussian Mixture Models [13.769786711365104]
パラメータ推定のための最大極大推定器と最小極小境界に対する一様収束率を導出する。
混合成分の混合割合は, 既知, 固定されていると仮定するが, 混合成分の分離仮定は行わない。
論文 参考訳(メタデータ) (2020-06-01T04:13:48Z) - Algebraic and Analytic Approaches for Parameter Learning in Mixture
Models [66.96778152993858]
1次元の混合モデルにおけるパラメータ学習のための2つの異なるアプローチを提案する。
これらの分布のいくつかについては、パラメータ推定の最初の保証を示す。
論文 参考訳(メタデータ) (2020-01-19T05:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。