論文の概要: Divide-and-conquer based Large-Scale Spectral Clustering
- arxiv url: http://arxiv.org/abs/2104.15042v1
- Date: Fri, 30 Apr 2021 15:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 16:24:45.551386
- Title: Divide-and-conquer based Large-Scale Spectral Clustering
- Title(参考訳): 分割・分割に基づく大規模スペクトルクラスタリング
- Authors: Hongmin Li, Xiucai Ye, Akira Imakura and Tetsuya Sakurai
- Abstract要約: そこで本研究では,分散・分散型大規模スペクトルクラスタリング手法を提案し,効率と効率のバランスを良くする。
提案手法は,既存の大規模スペクトルクラスタリングよりも計算量が少ない。
- 参考スコア(独自算出の注目度): 8.545202841051582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spectral clustering is one of the most popular clustering methods. However,
how to balance the efficiency and effectiveness of the large-scale spectral
clustering with limited computing resources has not been properly solved for a
long time. In this paper, we propose a divide-and-conquer based large-scale
spectral clustering method to strike a good balance between efficiency and
effectiveness. In the proposed method, a divide-and-conquer based landmark
selection algorithm and a novel approximate similarity matrix approach are
designed to construct a sparse similarity matrix within extremely low cost.
Then clustering results can be computed quickly through a bipartite graph
partition process. The proposed method achieves the lower computational
complexity than most existing large-scale spectral clustering. Experimental
results on ten large-scale datasets have demonstrated the efficiency and
effectiveness of the proposed methods. The MATLAB code of the proposed method
and experimental datasets are available at
https://github.com/Li-Hongmin/MyPaperWithCode.
- Abstract(参考訳): スペクトルクラスタリングは最も人気のあるクラスタリング手法の1つである。
しかし,大規模なスペクトルクラスタリングと限られた計算資源との効率と効率のバランスを両立させる方法は,長い間適切に解決されていない。
本稿では,効率と効率のバランスを良好に保ちつつ,分割・分割に基づく大規模スペクトルクラスタリング手法を提案する。
提案手法では,超低コストでスパース類似度行列を構築するために,分割・分散型ランドマーク選択アルゴリズムと新しい近似類似度行列手法を設計する。
次に、クラスタリング結果は、二部グラフ分割プロセスを通じて素早く計算できる。
提案手法は,既存の大規模スペクトルクラスタリングよりも計算量が少なくなる。
10個の大規模データセットに対する実験結果から,提案手法の有効性と有効性が確認された。
提案手法と実験データセットのMATLABコードはhttps://github.com/Li-Hongmin/MyPaperWithCode.comで公開されている。
関連論文リスト
- Scalable Co-Clustering for Large-Scale Data through Dynamic Partitioning and Hierarchical Merging [7.106620444966807]
クラスタの行と列を同時にクラスタリングすることで、よりきめ細かいグループを明らかにします。
既存のクラスタリング手法はスケーラビリティが悪く、大規模なデータを扱うことができない。
本稿では,高次元大規模データセットにおける複雑なパターンを明らかにするために,新しい,スケーラブルなコクラスタリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T04:47:22Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - GBMST: An Efficient Minimum Spanning Tree Clustering Based on
Granular-Ball Computing [78.92205914422925]
多粒度グラニュラバルと最小スパンニングツリー(MST)を組み合わせたクラスタリングアルゴリズムを提案する。
粒度が粗い粒状ボールを構築し,さらに粒状ボールとMSTを用いて「大規模優先度」に基づくクラスタリング手法を実装した。
いくつかのデータセットの実験結果は、アルゴリズムの威力を示している。
論文 参考訳(メタデータ) (2023-03-02T09:04:35Z) - Scalable Clustering: Large Scale Unsupervised Learning of Gaussian
Mixture Models with Outliers [5.478764356647437]
本稿では,損失最小化に基づくロバストなクラスタリングアルゴリズムを提案する。
これはアルゴリズムが高い確率で高い精度を得るという理論的保証を提供する。
実世界の大規模データセットの実験では、アルゴリズムの有効性が示されている。
論文 参考訳(メタデータ) (2023-02-28T14:39:18Z) - LSEC: Large-scale spectral ensemble clustering [8.545202841051582]
本稿では,効率と効率のバランスを良くするために,大規模スペクトルアンサンブルクラスタリング(LSEC)手法を提案する。
LSEC法は既存のアンサンブルクラスタリング法よりも計算複雑性が低い。
論文 参考訳(メタデータ) (2021-06-18T00:42:03Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Multi-View Spectral Clustering with High-Order Optimal Neighborhood
Laplacian Matrix [57.11971786407279]
マルチビュースペクトルクラスタリングは、データ間の固有のクラスタ構造を効果的に明らかにすることができる。
本稿では,高次最適近傍ラプラシア行列を学習するマルチビュースペクトルクラスタリングアルゴリズムを提案する。
提案アルゴリズムは, 1次ベースと高次ベースの両方の線形結合の近傍を探索し, 最適ラプラシア行列を生成する。
論文 参考訳(メタデータ) (2020-08-31T12:28:40Z) - Spectral Clustering using Eigenspectrum Shape Based Nystrom Sampling [19.675277307158435]
本稿では,新しいサンプリング手法であるCentroid Minimum Sum of Squared similarities (CMS3)と,それをいつ使用するかを示す,スケーラブルなNystromベースのクラスタリングアルゴリズムを提案する。
我々のデータセットはデータセットの固有スペクトル形状に依存しており、他の最先端手法と比較して、テストにおいて競合する低ランク近似が得られる。
論文 参考訳(メタデータ) (2020-07-21T17:49:03Z) - CAST: A Correlation-based Adaptive Spectral Clustering Algorithm on
Multi-scale Data [34.89460002735166]
マルチスケールクラスタデータにスペクトルクラスタリングを適用する際の問題点について検討する。
マルチスケールデータの場合、スパースクラスタのオブジェクトが遠く離れているため、距離ベースの類似性は有効ではない。
係数行列を正規化するためにトレースラッソを適用するアルゴリズムCASTを提案する。
論文 参考訳(メタデータ) (2020-06-08T09:46:35Z) - Learnable Subspace Clustering [76.2352740039615]
本研究では,大規模サブスペースクラスタリング問題を効率的に解くために,学習可能なサブスペースクラスタリングパラダイムを開発する。
鍵となる考え方は、高次元部分空間を下層の低次元部分空間に分割するパラメトリック関数を学ぶことである。
我々の知る限り、本論文は、サブスペースクラスタリング手法の中で、数百万のデータポイントを効率的にクラスタ化する最初の試みである。
論文 参考訳(メタデータ) (2020-04-09T12:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。