論文の概要: EGMM: an Evidential Version of the Gaussian Mixture Model for Clustering
- arxiv url: http://arxiv.org/abs/2010.01333v3
- Date: Wed, 7 Sep 2022 02:20:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 08:43:02.674988
- Title: EGMM: an Evidential Version of the Gaussian Mixture Model for Clustering
- Title(参考訳): egmm: クラスタリングのためのガウス混合モデルの実証版
- Authors: Lianmeng Jiao, Thierry Denoeux, Zhun-ga Liu, Quan Pan
- Abstract要約: 本稿では,信念関数の理論的枠組みにおいて,EGMM(evidential GMM)と呼ばれるモデルに基づくクラスタリングアルゴリズムを提案する。
EGMMのパラメータは、特別に設計された期待最大化(EM)アルゴリズムによって推定される。
提案したEGMMは従来のGMMと同じくらい単純であるが,検討されたデータセットに対して,より情報に富む明確な分割を生成することができる。
- 参考スコア(独自算出の注目度): 22.586481334904793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Gaussian mixture model (GMM) provides a simple yet principled framework
for clustering, with properties suitable for statistical inference. In this
paper, we propose a new model-based clustering algorithm, called EGMM
(evidential GMM), in the theoretical framework of belief functions to better
characterize cluster-membership uncertainty. With a mass function representing
the cluster membership of each object, the evidential Gaussian mixture
distribution composed of the components over the powerset of the desired
clusters is proposed to model the entire dataset. The parameters in EGMM are
estimated by a specially designed Expectation-Maximization (EM) algorithm. A
validity index allowing automatic determination of the proper number of
clusters is also provided. The proposed EGMM is as simple as the classical GMM,
but can generate a more informative evidential partition for the considered
dataset. The synthetic and real dataset experiments show that the proposed EGMM
performs better than other representative clustering algorithms. Besides, its
superiority is also demonstrated by an application to multi-modal brain image
segmentation.
- Abstract(参考訳): ガウス混合モデル(GMM)は、統計的推論に適した特性を持つクラスタリングのための単純な、しかし原則化されたフレームワークを提供する。
本稿では,クラスタメンバシップの不確実性をより正確に評価するための理論的枠組みとして,EGMM(evidential GMM)と呼ばれるモデルベースのクラスタリングアルゴリズムを提案する。
各オブジェクトのクラスタメンバシップを表す質量関数を用いて、所望のクラスタのパワーセット上のコンポーネントからなる証拠的ガウス混合分布を、データセット全体をモデル化するために提案する。
EGMMのパラメータは、特別に設計された期待最大化(EM)アルゴリズムによって推定される。
クラスタの適切な数を自動的に決定できる妥当性指標も提供する。
提案したEGMMは従来のGMMと同じくらい単純であるが,検討されたデータセットに対して,より情報に富む明確な分割を生成することができる。
合成および実データセット実験により,提案したEGMMは他のクラスタリングアルゴリズムよりも優れた性能を示した。
さらに、その優位性はマルチモーダル脳画像分割への応用によっても示される。
関連論文リスト
- Adaptive Fuzzy C-Means with Graph Embedding [84.47075244116782]
ファジィクラスタリングアルゴリズムは、大まかに2つの主要なグループに分類できる: ファジィC平均法(FCM)と混合モデルに基づく方法。
本稿では,FCMを用いたクラスタリングモデルを提案する。
論文 参考訳(メタデータ) (2024-05-22T08:15:50Z) - Mixture of multilayer stochastic block models for multiview clustering [0.0]
本稿では,異なる情報源から得られた複数のクラスタリングを集約する独自の手法を提案する。
モデルパラメータの同定可能性を確立し,これらのパラメータを推定するために変分ベイズEMアルゴリズムを提案する。
この手法は、グローバルな食品取引網の分析に利用され、興味のある構造に繋がる。
論文 参考訳(メタデータ) (2024-01-09T17:15:47Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - On the properties of Gaussian Copula Mixture Models [0.0]
本稿では,GCMMの数学的定義を示し,その可能性関数の性質について検討する。
本論文では,コプラの混合に対するパラメータを推定するための拡張期待アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-02T14:59:37Z) - Sparse and geometry-aware generalisation of the mutual information for joint discriminative clustering and feature selection [19.066989850964756]
GEMINIと呼ばれる相互情報の幾何を考慮した一般化を最大化しようとする識別クラスタリングモデルを導入する。
このアルゴリズムは,特徴探索の負担を回避し,識別クラスタリングモデルのみを設計しながら,高次元データや大量のサンプルに対して容易にスケーラブルである。
以上の結果から,Sparse GEMINIは競合アルゴリズムであり,関連基準や事前仮説を使わずに,クラスタリングに関して変数の関連するサブセットを選択することができることがわかった。
論文 参考訳(メタデータ) (2023-02-07T10:52:04Z) - A distribution-free mixed-integer optimization approach to hierarchical modelling of clustered and longitudinal data [0.0]
我々は,新しいデータポイントに対するクラスタ効果を評価する革新的なアルゴリズムを導入し,このモデルのロバスト性や精度を高める。
このアプローチの推論的および予測的効果は、学生のスコアリングとタンパク質発現に適用することでさらに説明される。
論文 参考訳(メタデータ) (2023-02-06T23:34:51Z) - clusterBMA: Bayesian model averaging for clustering [1.2021605201770345]
本稿では、教師なしクラスタリングアルゴリズムの結果の重み付きモデル平均化を可能にするクラスタBMAを提案する。
クラスタリング内部検証基準を用いて、各モデルの結果の重み付けに使用される後続モデル確率の近似を開発する。
シミュレーションデータ上での他のアンサンブルクラスタリングメソッドのパフォーマンスに加えて、クラスタBMAは平均クラスタへの確率的アロケーションを含むユニークな機能を提供する。
論文 参考訳(メタデータ) (2022-09-09T04:55:20Z) - Tight integration of neural- and clustering-based diarization through
deep unfolding of infinite Gaussian mixture model [84.57667267657382]
本稿では,統合フレームワークにトレーニング可能なクラスタリングアルゴリズムを導入する。
話者埋め込みはトレーニング中に最適化され、iGMMクラスタリングに適合する。
実験の結果,提案手法はダイアリゼーション誤差率において従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-02-14T07:45:21Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - Clustering Binary Data by Application of Combinatorial Optimization
Heuristics [52.77024349608834]
本稿では,2値データのクラスタリング手法について検討し,まず,クラスタのコンパクトさを計測するアグリゲーション基準を定義した。
近隣地域と人口動態最適化メタヒューリスティックスを用いた5つの新しいオリジナル手法が導入された。
準モンテカルロ実験によって生成された16のデータテーブルから、L1の相似性と階層的クラスタリング、k-means(メドイドやPAM)の1つのアグリゲーションの比較を行う。
論文 参考訳(メタデータ) (2020-01-06T23:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。