論文の概要: Hierarchical clustering by aggregating representatives in
sub-minimum-spanning-trees
- arxiv url: http://arxiv.org/abs/2111.06968v1
- Date: Thu, 11 Nov 2021 07:36:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 13:23:03.378865
- Title: Hierarchical clustering by aggregating representatives in
sub-minimum-spanning-trees
- Title(参考訳): サブ最小スパンニングツリーにおけるアグリゲーション代表による階層的クラスタリング
- Authors: Wen-Bo Xie, Zhen Liu, Jaideep Srivastava
- Abstract要約: 本稿では,クラスタリングデンドログラムを構築しながら,代表点を効果的に検出できる階層的クラスタリングアルゴリズムを提案する。
解析の結果,提案アルゴリズムはO(nlogn)時間複雑度とO(nlogn)空間複雑度を有し,大規模データ処理のスケーラビリティを示す。
- 参考スコア(独自算出の注目度): 5.877624540482919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the main challenges for hierarchical clustering is how to
appropriately identify the representative points in the lower level of the
cluster tree, which are going to be utilized as the roots in the higher level
of the cluster tree for further aggregation. However, conventional hierarchical
clustering approaches have adopted some simple tricks to select the
"representative" points which might not be as representative as enough. Thus,
the constructed cluster tree is less attractive in terms of its poor robustness
and weak reliability. Aiming at this issue, we propose a novel hierarchical
clustering algorithm, in which, while building the clustering dendrogram, we
can effectively detect the representative point based on scoring the reciprocal
nearest data points in each sub-minimum-spanning-tree. Extensive experiments on
UCI datasets show that the proposed algorithm is more accurate than other
benchmarks. Meanwhile, under our analysis, the proposed algorithm has O(nlogn)
time-complexity and O(logn) space-complexity, indicating that it has the
scalability in handling massive data with less time and storage consumptions.
- Abstract(参考訳): 階層的クラスタリングの主な課題の1つは、クラスタツリーの下位レベルにおける代表点を適切に識別する方法である。
しかしながら、従来の階層的クラスタリングアプローチでは、十分な代表性を持たない"代表的"なポイントを選択するための簡単なトリックが採用されている。
このように、構築されたクラスタツリーは、ロバスト性や信頼性の低い点で魅力的ではない。
そこで本研究では,クラスタリングデンドログラムを構築しながら,各サブ最小スパンニングツリーの相互に最も近いデータ点のスコアに基づいて,代表点を効果的に検出できる階層的クラスタリングアルゴリズムを提案する。
uciデータセットに関する広範な実験は、提案アルゴリズムが他のベンチマークよりも正確であることを示している。
一方,本解析では,提案手法はo(nlogn)時間複雑度とo(logn)空間複雑度を有し,時間とストレージ消費の少ない大規模データを扱う場合のスケーラビリティを示す。
関連論文リスト
- Interpretable Sequence Clustering [3.280979689839737]
我々は、ISCT(Interpretable Sequence Clustering Tree)と呼ばれる手法を提案する。
ISCTは、k個のクラスタに対応するk個のリーフノードを生成し、各クラスタの生成方法に関する直感的な説明を提供する。
実世界の14のデータセットに対する実験結果から,本手法が解釈可能な木構造を提供することが示された。
論文 参考訳(メタデータ) (2023-09-03T11:31:44Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - Contrastive Hierarchical Clustering [8.068701201341065]
CoHiClustは、ディープニューラルネットワークに基づくContrastive Hierarchical Clusteringモデルである。
自己教師付き学習アプローチを採用することで、CoHiClustは、ラベル付きデータにアクセスせずに、ベースネットワークをバイナリツリーに蒸留する。
論文 参考訳(メタデータ) (2023-03-03T07:54:19Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Natural Hierarchical Cluster Analysis by Nearest Neighbors with
Near-Linear Time Complexity [0.0]
そこで本研究では,クラスタの自然な階層化を実現する,近接クラスタリングアルゴリズムを提案する。
集約的および分割的階層的クラスタリングアルゴリズムとは対照的に,我々のアプローチはアルゴリズムの反復的な動作に依存しない。
論文 参考訳(メタデータ) (2022-03-15T16:03:42Z) - Exact and Approximate Hierarchical Clustering Using A* [51.187990314731344]
クラスタリングのA*探索に基づく新しいアプローチを紹介します。
A*と新しいエンフォレリスデータ構造を組み合わせることで、禁止的に大きな検索空間を克服します。
実験により,本手法は粒子物理利用事例や他のクラスタリングベンチマークにおいて,ベースラインよりもかなり高品質な結果が得られることを示した。
論文 参考訳(メタデータ) (2021-04-14T18:15:27Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。