論文の概要: UniForCE: The Unimodality Forest Method for Clustering and Estimation of
the Number of Clusters
- arxiv url: http://arxiv.org/abs/2312.11323v1
- Date: Mon, 18 Dec 2023 16:19:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 19:32:38.398864
- Title: UniForCE: The Unimodality Forest Method for Clustering and Estimation of
the Number of Clusters
- Title(参考訳): UniForCE:クラスタリングとクラスタ数推定のための一様森林法
- Authors: Georgios Vardakas, Argyris Kalogeratos, Aristidis Likas
- Abstract要約: 我々は,一様性の概念に着目し,局所的一様性クラスタと呼ばれる柔軟なクラスタ定義を提案する。
局所的ユニモーダルクラスタは、データのサブクラスタのペア間で一様性が局所的に保存される限り、拡張される。
局所的な単調クラスタリングのためのUniForCE法を提案する。
- 参考スコア(独自算出の注目度): 2.4953699842881605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating the number of clusters k while clustering the data is a
challenging task. An incorrect cluster assumption indicates that the number of
clusters k gets wrongly estimated. Consequently, the model fitting becomes less
important. In this work, we focus on the concept of unimodality and propose a
flexible cluster definition called locally unimodal cluster. A locally unimodal
cluster extends for as long as unimodality is locally preserved across pairs of
subclusters of the data. Then, we propose the UniForCE method for locally
unimodal clustering. The method starts with an initial overclustering of the
data and relies on the unimodality graph that connects subclusters forming
unimodal pairs. Such pairs are identified using an appropriate statistical
test. UniForCE identifies maximal locally unimodal clusters by computing a
spanning forest in the unimodality graph. Experimental results on both real and
synthetic datasets illustrate that the proposed methodology is particularly
flexible and robust in discovering regular and highly complex cluster shapes.
Most importantly, it automatically provides an adequate estimation of the
number of clusters.
- Abstract(参考訳): データをクラスタ化しながらクラスタ数kを見積もるのは難しい作業です。
間違ったクラスタ仮定は、クラスタ数kが誤って推定されることを示す。
これにより、モデルフィッティングがより重要になる。
本稿では,ユニモダリティの概念に着目し,局所ユニモダリティクラスタと呼ばれる柔軟なクラスタ定義を提案する。
ローカルなユニモダリティクラスタは、データのサブクラスタのペア間でユニモダリティがローカルに保存される限り拡張される。
そこで本研究では,UniForCE法を提案する。
この方法は、データの初期オーバークラスタ化から始まり、サブクラスタを接続する一様性グラフに依存している。
このようなペアは適切な統計テストを用いて識別される。
UniForCEは、一様グラフ内の広がる森林を計算することで、最大局所的な一様クラスタを特定する。
実データと合成データの両方を用いた実験結果から,提案手法は正則かつ複雑なクラスタ形状の発見に特に柔軟で堅牢であることが示された。
最も重要なのは、自動的にクラスタ数を適切に見積もることです。
関連論文リスト
- Learning Uniform Clusters on Hypersphere for Deep Graph-level Clustering [25.350054742471816]
我々はUDGC(Uniform Deep Graph Clustering)と呼ばれる新しいディープグラフレベルのクラスタリング手法を提案する。
UDGCはインスタンスを異なるクラスタに均等に割り当て、次にこれらのクラスタをユニットハイパースフィア上に分散させ、より均一なクラスタレベルの分散と、より小さなクラスタ崩壊につながる。
8つのよく知られたデータセットに関する実証研究は、UDGCが最先端のモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2023-11-23T12:08:20Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - A Computational Theory and Semi-Supervised Algorithm for Clustering [0.0]
半教師付きクラスタリングアルゴリズムを提案する。
クラスタリング法のカーネルは、Mohammadの異常検出アルゴリズムである。
結果は、合成および実世界のデータセットで示される。
論文 参考訳(メタデータ) (2023-06-12T09:15:58Z) - Convex Clustering through MM: An Efficient Algorithm to Perform
Hierarchical Clustering [1.0589208420411012]
本稿では,クラスタ融合と高効率更新方式を用いた反復アルゴリズムCCMMによる凸クラスタリングを提案する。
現在のデスクトップコンピュータでは、CCMMは、7次元空間に100万以上のオブジェクトを含む凸クラスタリング問題を効率的に解決する。
論文 参考訳(メタデータ) (2022-11-03T15:07:51Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。