論文の概要: Similarity and Dissimilarity Guided Co-association Matrix Construction for Ensemble Clustering
- arxiv url: http://arxiv.org/abs/2411.00904v1
- Date: Fri, 01 Nov 2024 08:10:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:42:28.399921
- Title: Similarity and Dissimilarity Guided Co-association Matrix Construction for Ensemble Clustering
- Title(参考訳): アンサンブルクラスタリングのための類似性と相似性誘導共連想行列の構成
- Authors: Xu Zhang, Yuheng Jia, Mofei Song, Ran Wang,
- Abstract要約: アンサンブルクラスタリングを実現するためにSDGCA(Simisity and Dissimilarity Guided Co-Association matrix)を提案する。
まず、各クラスタの品質を推定するために正規化アンサンブルエントロピーを導入し、この推定に基づいて類似度行列を構築した。
ランダムウォークを用いて、基底クラスタリングの高次近接を探索し、相似行列を構成する。
- 参考スコア(独自算出の注目度): 22.280221709474105
- License:
- Abstract: Ensemble clustering aggregates multiple weak clusterings to achieve a more accurate and robust consensus result. The Co-Association matrix (CA matrix) based method is the mainstream ensemble clustering approach that constructs the similarity relationships between sample pairs according the weak clustering partitions to generate the final clustering result. However, the existing methods neglect that the quality of cluster is related to its size, i.e., a cluster with smaller size tends to higher accuracy. Moreover, they also do not consider the valuable dissimilarity information in the base clusterings which can reflect the varying importance of sample pairs that are completely disconnected. To this end, we propose the Similarity and Dissimilarity Guided Co-association matrix (SDGCA) to achieve ensemble clustering. First, we introduce normalized ensemble entropy to estimate the quality of each cluster, and construct a similarity matrix based on this estimation. Then, we employ the random walk to explore high-order proximity of base clusterings to construct a dissimilarity matrix. Finally, the adversarial relationship between the similarity matrix and the dissimilarity matrix is utilized to construct a promoted CA matrix for ensemble clustering. We compared our method with 13 state-of-the-art methods across 12 datasets, and the results demonstrated the superiority clustering ability and robustness of the proposed approach. The code is available at https://github.com/xuz2019/SDGCA.
- Abstract(参考訳): アンサンブルクラスタリングは、より正確で堅牢なコンセンサス結果を達成するために、複数の弱いクラスタリングを集約する。
Co-Association matrix(CA行列)に基づく手法は、サンプルペア間の類似性関係を弱いクラスタリング分割に従って構築し、最終的なクラスタリング結果を生成する主流アンサンブルクラスタリング手法である。
しかし、既存の手法では、クラスタの品質がそのサイズに関連していることを無視している。
さらに、完全に切断されたサンプルペアの様々な重要性を反映できる、ベースクラスタリングにおける貴重な相似性情報も考慮していない。
そこで本研究では,Simisity and Dissimilarity Guided Co-Association matrix (SDGCA) を提案し,アンサンブルクラスタリングを実現する。
まず、各クラスタの品質を推定するために正規化アンサンブルエントロピーを導入し、この推定に基づいて類似度行列を構築した。
そして、ランダムウォークを用いて、基底クラスタリングの高次近接を探索し、相似行列を構成する。
最後に、類似度行列と異性行列の逆関係を利用して、アンサンブルクラスタリングのための促進CA行列を構築する。
提案手法を12データセットにわたる13の最先端手法と比較し,提案手法のクラスタリング能力とロバスト性を示した。
コードはhttps://github.com/xuz2019/SDGCAで公開されている。
関連論文リスト
- Multi-view clustering integrating anchor attribute and structural information [1.4750411676439674]
本稿では,新しいマルチビュークラスタリングアルゴリズムであるAASを紹介する。
各ビューのアンカーを介して2段階の近接アプローチを利用し、属性と方向付けされた構造情報を統合する。
論文 参考訳(メタデータ) (2024-10-29T03:53:03Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Linear time Evidence Accumulation Clustering with KMeans [0.0]
この研究は、平均的なリンククラスタリングの振る舞いを模倣するトリックを記述する。
分割の密度を効率よく計算する方法を見つけ、二次的な複雑さから線形的な複雑さへのコストを削減した。
k平均結果は、計算コストを低く保ちながら、NMIの観点からは、最先端の技術に匹敵する。
論文 参考訳(メタデータ) (2023-11-15T14:12:59Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - High-dimensional Clustering onto Hamiltonian Cycle [30.17605416237686]
クラスタリングは、類似性に基づいてアンラベリングされたサンプルをグループ化することを目的としている。
本稿では,ハミルトンサイクル上での高次元クラスタリングという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-27T20:59:45Z) - Ensemble Clustering via Co-association Matrix Self-enhancement [16.928049559092454]
アンサンブルクラスタリングは、一連のベースクラスタリング結果を統合して、より強力なクラスタを生成する。
既存の手法は通常、同一のクラスタに2つのサンプルがグループ化された回数を測定する共連想行列(CA)に依存している。
本稿では, クラスタリング性能を向上させるために, CA行列を改善するための, 単純かつ効果的なCA行列自己拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-12T07:54:32Z) - Clustering Ensemble Meets Low-rank Tensor Approximation [50.21581880045667]
本稿では,複数のクラスタリングを組み合わせ,個々のクラスタリングよりも優れたパフォーマンスを実現するクラスタリングアンサンブルの問題について検討する。
本稿では,この問題をグローバルな視点から解くために,新しい低ランクテンソル近似法を提案する。
7つのベンチマークデータセットを用いた実験の結果,提案手法は12の最先端手法と比較して,クラスタリング性能のブレークスルーを達成した。
論文 参考訳(メタデータ) (2020-12-16T13:01:37Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z) - Clustering Binary Data by Application of Combinatorial Optimization
Heuristics [52.77024349608834]
本稿では,2値データのクラスタリング手法について検討し,まず,クラスタのコンパクトさを計測するアグリゲーション基準を定義した。
近隣地域と人口動態最適化メタヒューリスティックスを用いた5つの新しいオリジナル手法が導入された。
準モンテカルロ実験によって生成された16のデータテーブルから、L1の相似性と階層的クラスタリング、k-means(メドイドやPAM)の1つのアグリゲーションの比較を行う。
論文 参考訳(メタデータ) (2020-01-06T23:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。