論文の概要: Self-Supervised Graph Embedding Clustering
- arxiv url: http://arxiv.org/abs/2409.15887v2
- Date: Wed, 30 Oct 2024 02:01:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 19:21:13.739607
- Title: Self-Supervised Graph Embedding Clustering
- Title(参考訳): 自己監督型グラフ埋め込みクラスタリング
- Authors: Fangfang Li, Quanxue Gao, Cheng Deng, Wei Xia,
- Abstract要約: K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
- 参考スコア(独自算出の注目度): 70.36328717683297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The K-means one-step dimensionality reduction clustering method has made some progress in addressing the curse of dimensionality in clustering tasks. However, it combines the K-means clustering and dimensionality reduction processes for optimization, leading to limitations in the clustering effect due to the introduced hyperparameters and the initialization of clustering centers. Moreover, maintaining class balance during clustering remains challenging. To overcome these issues, we propose a unified framework that integrates manifold learning with K-means, resulting in the self-supervised graph embedding framework. Specifically, we establish a connection between K-means and the manifold structure, allowing us to perform K-means without explicitly defining centroids. Additionally, we use this centroid-free K-means to generate labels in low-dimensional space and subsequently utilize the label information to determine the similarity between samples. This approach ensures consistency between the manifold structure and the labels. Our model effectively achieves one-step clustering without the need for redundant balancing hyperparameters. Notably, we have discovered that maximizing the $\ell_{2,1}$-norm naturally maintains class balance during clustering, a result that we have theoretically proven. Finally, experiments on multiple datasets demonstrate that the clustering results of Our-LPP and Our-MFA exhibit excellent and reliable performance.
- Abstract(参考訳): K-平均1ステップの次元削減クラスタリング法は,クラスタリングタスクにおける次元の呪いに対処する上で,いくつかの進歩をもたらした。
しかし、K平均クラスタリングと最適化のための次元削減プロセスを組み合わせることで、導入されたハイパーパラメーターによるクラスタリング効果の制限とクラスタリングセンターの初期化につながる。
さらに、クラスタリング中にクラスバランスを維持することは依然として困難である。
これらの問題を克服するために,K-meansと多様体学習を統合した統合フレームワークを提案し,その結果,自己教師付きグラフ埋め込みフレームワークが誕生した。
具体的には、K-平均と多様体構造との接続を確立し、セントロイドを明示的に定義せずにK-平均を実行できる。
さらに,このセントロイドフリーK平均値を用いて低次元空間のラベルを生成し,そのラベル情報を用いてサンプル間の類似性を決定する。
このアプローチは多様体構造とラベルの整合性を保証する。
我々のモデルは、ハイパーパラメータの冗長なバランスを必要とせずに、1ステップのクラスタリングを効果的に実現している。
特に、$\ell_{2,1}$-normの最大化はクラスタリング中にクラスバランスを自然に維持することを発見した。
最後に、複数のデータセットに対する実験により、Our-LPPとOur-MFAのクラスタリング結果が優れた信頼性と信頼性を示すことが示された。
関連論文リスト
- Adaptive Self-supervised Robust Clustering for Unstructured Data with Unknown Cluster Number [12.926206811876174]
適応型自己教師型ロバストクラスタリング(Adaptive Self-supervised Robust Clustering, ASRC)と呼ばれる非構造化データに適した,新たな自己教師型ディープクラスタリング手法を提案する。
ASRCはグラフ構造とエッジ重みを適応的に学習し、局所構造情報と大域構造情報の両方をキャプチャする。
ASRCは、クラスタ数の事前知識に依存するメソッドよりも優れており、非構造化データのクラスタリングの課題に対処する上での有効性を強調している。
論文 参考訳(メタデータ) (2024-07-29T15:51:09Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Imbalanced Data Clustering using Equilibrium K-Means [1.0878040851638]
セントロイドベースのクラスタリングアルゴリズムは、大規模なクラスタに対する学習バイアスに悩まされている。
本稿では,ボルツマン演算子に基づく新たなクラスタリング目的関数を提案する。
提案された新しいアルゴリズムは平衡K平均 (EKM) と呼ばれ、2つのステップ間で交互に行われる。
論文 参考訳(メタデータ) (2024-02-22T12:27:38Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Wide Gaps and Clustering Axioms [0.0]
k-平均は、距離に基づくクラスタリングアルゴリズムのためのクラインバーグの公理系と矛盾している。
我々は,2つの新しいクラスタビリティ特性,変分k-分離性と残留k-分離性を導入する。
我々は、k-meansを、ユークリッドおよび非ユークリッドセッティングにおけるクラインバーグの公理的フレームワークと照合する。
論文 参考訳(メタデータ) (2023-08-07T10:43:48Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。