論文の概要: LSEC: Large-scale spectral ensemble clustering
- arxiv url: http://arxiv.org/abs/2106.09852v1
- Date: Fri, 18 Jun 2021 00:42:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 02:25:29.157351
- Title: LSEC: Large-scale spectral ensemble clustering
- Title(参考訳): LSEC:大規模スペクトルアンサンブルクラスタリング
- Authors: Hongmin Li, Xiucai Ye, Akira Imakura and Tetsuya Sakurai
- Abstract要約: 本稿では,効率と効率のバランスを良くするために,大規模スペクトルアンサンブルクラスタリング(LSEC)手法を提案する。
LSEC法は既存のアンサンブルクラスタリング法よりも計算複雑性が低い。
- 参考スコア(独自算出の注目度): 8.545202841051582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensemble clustering is a fundamental problem in the machine learning field,
combining multiple base clusterings into a better clustering result. However,
most of the existing methods are unsuitable for large-scale ensemble clustering
tasks due to the efficiency bottleneck. In this paper, we propose a large-scale
spectral ensemble clustering (LSEC) method to strike a good balance between
efficiency and effectiveness. In LSEC, a large-scale spectral clustering based
efficient ensemble generation framework is designed to generate various base
clusterings within a low computational complexity. Then all based clustering
are combined through a bipartite graph partition based consensus function into
a better consensus clustering result. The LSEC method achieves a lower
computational complexity than most existing ensemble clustering methods.
Experiments conducted on ten large-scale datasets show the efficiency and
effectiveness of the LSEC method. The MATLAB code of the proposed method and
experimental datasets are available at https://github.com/Li-
Hongmin/MyPaperWithCode.
- Abstract(参考訳): アンサンブルクラスタリングは、複数のベースクラスタリングをより良いクラスタリング結果に組み合わせることで、機械学習分野における基本的な問題である。
しかしながら、既存の手法のほとんどは効率のボトルネックのため、大規模なアンサンブルクラスタリングタスクには適さない。
本稿では,効率と効率のバランスを良好に両立させる大規模スペクトルアンサンブルクラスタリング(lsec)手法を提案する。
LSECでは、大規模スペクトルクラスタリングに基づく効率的なアンサンブル生成フレームワークが、低計算量で様々なベースクラスタリングを生成するように設計されている。
次に、すべてのベースのクラスタリングは、2部グラフ分割ベースのコンセンサス関数を介して、よりよいコンセンサスクラスタリング結果に結合される。
LSEC法は既存のアンサンブルクラスタリング法よりも計算複雑性が低い。
10個の大規模データセットで行った実験は, LSEC法の有効性と有効性を示した。
提案手法と実験データセットのMATLABコードはhttps://github.com/LiHongmin/MyPaperWithCode.comで公開されている。
関連論文リスト
- Scalable Co-Clustering for Large-Scale Data through Dynamic Partitioning and Hierarchical Merging [7.106620444966807]
クラスタの行と列を同時にクラスタリングすることで、よりきめ細かいグループを明らかにします。
既存のクラスタリング手法はスケーラビリティが悪く、大規模なデータを扱うことができない。
本稿では,高次元大規模データセットにおける複雑なパターンを明らかにするために,新しい,スケーラブルなコクラスタリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T04:47:22Z) - A3S: A General Active Clustering Method with Pairwise Constraints [66.74627463101837]
A3Sは、適応クラスタリングアルゴリズムによって得られる初期クラスタ結果に対して、戦略的にアクティブクラスタリングを調整する。
さまざまな実世界のデータセットにわたる広範な実験において、A3Sは、人間のクエリを著しく少なくして、望ましい結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T13:37:03Z) - One-Step Late Fusion Multi-view Clustering with Compressed Subspace [29.02032034647922]
圧縮部分空間を用いたワンステップレイトフュージョンマルチビュークラスタリング(OS-LFMVC-CS)という統合フレームワークを提案する。
コンセンサス部分空間を用いて分割行列を整列し、分割融合を最適化し、融合分割行列を用いて離散ラベルの学習を指導する。
論文 参考訳(メタデータ) (2024-01-03T06:18:30Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - DivClust: Controlling Diversity in Deep Clustering [47.85350249697335]
DivClustはコンセンサスクラスタリングソリューションを生成し、単一クラスタリングベースラインを一貫して上回る。
提案手法は, フレームワークやデータセット間の多様性を, 計算コストを極めて小さく効果的に制御する。
論文 参考訳(メタデータ) (2023-04-03T14:45:43Z) - Convex Clustering through MM: An Efficient Algorithm to Perform
Hierarchical Clustering [1.0589208420411012]
本稿では,クラスタ融合と高効率更新方式を用いた反復アルゴリズムCCMMによる凸クラスタリングを提案する。
現在のデスクトップコンピュータでは、CCMMは、7次元空間に100万以上のオブジェクトを含む凸クラスタリング問題を効率的に解決する。
論文 参考訳(メタデータ) (2022-11-03T15:07:51Z) - Late Fusion Multi-view Clustering via Global and Local Alignment
Maximization [61.89218392703043]
マルチビュークラスタリング(MVC)は、異なるビューからの補完情報を最適に統合し、クラスタリング性能を改善する。
既存のアプローチの多くは、クラスタリングに最適な類似性行列を学ぶために、複数の事前定義された類似性を直接融合する。
これらの問題に対処するために、アライメントを通してレイトフュージョンMVCを提案する。
論文 参考訳(メタデータ) (2022-08-02T01:49:31Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - Divide-and-conquer based Large-Scale Spectral Clustering [8.545202841051582]
そこで本研究では,分散・分散型大規模スペクトルクラスタリング手法を提案し,効率と効率のバランスを良くする。
提案手法は,既存の大規模スペクトルクラスタリングよりも計算量が少ない。
論文 参考訳(メタデータ) (2021-04-30T15:09:45Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。