論文の概要: A Restarted Large-Scale Spectral Clustering with Self-Guiding and Block
Diagonal Representation
- arxiv url: http://arxiv.org/abs/2306.15138v2
- Date: Thu, 29 Jun 2023 06:51:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 10:22:24.550040
- Title: A Restarted Large-Scale Spectral Clustering with Self-Guiding and Block
Diagonal Representation
- Title(参考訳): 自己ガイドとブロック対角表現を用いた大規模スペクトルクラスタリング
- Authors: Yongyan Guo and Gang Wu
- Abstract要約: 自己誘導とブロック対角表現を備えた再起動クラスタリングフレームワークを提案する。
この戦略の利点は、以前のサイクルから得られた有用なクラスタリング情報を保存できることである。
スペクトルクラスタリングにおける不正確な計算の合理性を示す理論的結果が確立された。
- 参考スコア(独自算出の注目度): 1.115905690697198
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Spectral clustering is one of the most popular unsupervised machine learning
methods. Constructing similarity matrix is crucial to this type of method. In
most existing works, the similarity matrix is computed once for all or is
updated alternatively. However, the former is difficult to reflect
comprehensive relationships among data points, and the latter is time-consuming
and is even infeasible for large-scale problems. In this work, we propose a
restarted clustering framework with self-guiding and block diagonal
representation. An advantage of the strategy is that some useful clustering
information obtained from previous cycles could be preserved as much as
possible. To the best of our knowledge, this is the first work that applies
restarting strategy to spectral clustering. The key difference is that we
reclassify the samples in each cycle of our method, while they are classified
only once in existing methods. To further release the overhead, we introduce a
block diagonal representation with Nystr\"{o}m approximation for constructing
the similarity matrix. Theoretical results are established to show the
rationality of inexact computations in spectral clustering. Comprehensive
experiments are performed on some benchmark databases, which show the
superiority of our proposed algorithms over many state-of-the-art algorithms
for large-scale problems. Specifically, our framework has a potential boost for
clustering algorithms and works well even using an initial guess chosen
randomly.
- Abstract(参考訳): スペクトルクラスタリングは、最も人気のある教師なし機械学習手法の1つである。
類似度行列の構築はこの種の手法に不可欠である。
ほとんどの既存の作品では、類似度行列は1回計算されるか、あるいは別の方法で更新される。
しかし, 前者はデータポイント間の包括的関係を反映することは困難であり, 後者は時間を要するため, 大規模問題にも適用できない。
本稿では,自己誘導とブロック対角表現を用いたクラスタリングフレームワークの再開を提案する。
この戦略の利点は、以前のサイクルから得られた有用なクラスタリング情報を可能な限り保存できることである。
私たちの知る限りでは、これはスペクトルクラスタリングに再起動戦略を適用する最初の仕事です。
重要な違いは、既存のメソッドでのみ分類されるのに対して、メソッドの各サイクルでサンプルを再分類することです。
さらにオーバーヘッドを解放するために,nystr\"{o}m近似を用いたブロック対角表現を導入し,類似性行列を構築する。
スペクトルクラスタリングにおける不正確な計算の合理性を示す理論的結果を確立する。
総合的な実験がいくつかのベンチマークデータベース上で行われ,大規模問題に対する最先端アルゴリズムよりも優れたアルゴリズムが提案されている。
具体的には、我々のフレームワークはクラスタリングアルゴリズムを潜在的に強化し、ランダムに選択した初期推定を用いてもうまく機能する。
関連論文リスト
- An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - On the Power of SVD in the Stochastic Block Model [6.661713888517129]
PCAやSVDのようなスペクトルベースの次元削減ツールは、多くのアプリケーションにおけるクラスタリングアルゴリズムの性能を改善する。
対称的な設定では、バニラ-SVDアルゴリズムは全てのクラスタを正しく復元する。
論文 参考訳(メタデータ) (2023-09-27T00:04:27Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Scalable Clustering: Large Scale Unsupervised Learning of Gaussian
Mixture Models with Outliers [5.478764356647437]
本稿では,損失最小化に基づくロバストなクラスタリングアルゴリズムを提案する。
これはアルゴリズムが高い確率で高い精度を得るという理論的保証を提供する。
実世界の大規模データセットの実験では、アルゴリズムの有効性が示されている。
論文 参考訳(メタデータ) (2023-02-28T14:39:18Z) - Genie: A new, fast, and outlier-resistant hierarchical clustering
algorithm [3.7491936479803054]
我々はGenieと呼ばれる新しい階層的クラスタリングリンク基準を提案する。
我々のアルゴリズムは、2つのクラスタを、選択された経済不平等尺度が与えられたしきい値を超えないようにリンクする。
このアルゴリズムのリファレンス実装は、Rのためのオープンソースの'genie'パッケージに含まれている。
論文 参考訳(メタデータ) (2022-09-13T06:42:53Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Correlation Clustering Reconstruction in Semi-Adversarial Models [70.11015369368272]
相関クラスタリングは多くのアプリケーションにおいて重要なクラスタリング問題である。
本研究では,ランダムノイズや対向的な修正によって崩壊した潜伏クラスタリングを再構築しようとする,この問題の再構築版について検討する。
論文 参考訳(メタデータ) (2021-08-10T14:46:17Z) - Divide-and-conquer based Large-Scale Spectral Clustering [8.545202841051582]
そこで本研究では,分散・分散型大規模スペクトルクラスタリング手法を提案し,効率と効率のバランスを良くする。
提案手法は,既存の大規模スペクトルクラスタリングよりも計算量が少ない。
論文 参考訳(メタデータ) (2021-04-30T15:09:45Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Spectral Clustering with Smooth Tiny Clusters [14.483043753721256]
本稿では,データのスムーズさを初めて考慮した新しいクラスタリングアルゴリズムを提案する。
私たちのキーとなるアイデアは、スムーズなグラフを構成する小さなクラスタをクラスタ化することです。
本稿では,マルチスケールな状況に着目するが,データのスムーズさの考え方はどのクラスタリングアルゴリズムにも確実に拡張できる。
論文 参考訳(メタデータ) (2020-09-10T05:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。