論文の概要: Parameter-Free Clustering via Self-Supervised Consensus Maximization (Extended Version)
- arxiv url: http://arxiv.org/abs/2511.09211v1
- Date: Thu, 13 Nov 2025 01:40:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.465494
- Title: Parameter-Free Clustering via Self-Supervised Consensus Maximization (Extended Version)
- Title(参考訳): 自己監督型合意最大化によるパラメータフリークラスタリング(拡張版)
- Authors: Lijun Zhang, Suyuan Liu, Siwei Wang, Shengju Yu, Xueling Zhu, Miaomiao Li, Xinwang Liu,
- Abstract要約: 本稿では,SCMax と呼ばれる自己教師型コンセンサス最大化による,新しい完全パラメータフリークラスタリングフレームワークを提案する。
本フレームワークは,階層的なクラスタリングとクラスタ評価を単一の統合プロセスで行う。
- 参考スコア(独自算出の注目度): 50.41628860536753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering is a fundamental task in unsupervised learning, but most existing methods heavily rely on hyperparameters such as the number of clusters or other sensitive settings, limiting their applicability in real-world scenarios. To address this long-standing challenge, we propose a novel and fully parameter-free clustering framework via Self-supervised Consensus Maximization, named SCMax. Our framework performs hierarchical agglomerative clustering and cluster evaluation in a single, integrated process. At each step of agglomeration, it creates a new, structure-aware data representation through a self-supervised learning task guided by the current clustering structure. We then introduce a nearest neighbor consensus score, which measures the agreement between the nearest neighbor-based merge decisions suggested by the original representation and the self-supervised one. The moment at which consensus maximization occurs can serve as a criterion for determining the optimal number of clusters. Extensive experiments on multiple datasets demonstrate that the proposed framework outperforms existing clustering approaches designed for scenarios with an unknown number of clusters.
- Abstract(参考訳): クラスタリングは教師なし学習の基本的なタスクだが、既存のほとんどのメソッドはクラスタ数やその他の機密性の高い設定などのハイパーパラメータに大きく依存しており、現実のシナリオにおける適用性を制限している。
この長期的課題に対処するために,SCMax という自己教師型合意最大化を用いた,新しい完全パラメータフリークラスタリングフレームワークを提案する。
本フレームワークは,階層的なクラスタリングとクラスタ評価を単一の統合プロセスで行う。
集約の各ステップにおいて、現在のクラスタリング構造によってガイドされる自己教師付き学習タスクを通じて、構造を意識した新しいデータ表現を生成する。
次に、近隣のコンセンサススコアを導入し、元の表現によって提案される近隣のマージ決定と自己監督的な決定との合意を計測する。
コンセンサスを最大化するモーメントは、最適なクラスタ数を決定するための基準となる。
複数のデータセットに対する大規模な実験は、提案されたフレームワークが、未知数のクラスタを持つシナリオ用に設計された既存のクラスタリングアプローチより優れていることを示している。
関連論文リスト
- Discriminative Ordering Through Ensemble Consensus [12.714723443928298]
コンセンサスクラスタリングからインスピレーションを得て、クラスタリングモデルのセットがデータに隠された構造を発見できると仮定します。
本稿では,クラスタリングモデルとコンセンサス行列との接続距離に基づいて,アンサンブルクラスタリングによる識別順序付けを提案する。
論文 参考訳(メタデータ) (2025-05-07T14:35:39Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Towards Explainable Clustering: A Constrained Declarative based Approach [0.294944680995069]
古典的クラスタリング基準の観点から,高品質なクラスタリングを実現することを目指しており,その説明が可能である。
クラスタリングに関する優れたグローバルな説明は、各クラスタの特徴を、そのオブジェクトを記述する能力を考慮して与えるべきである。
そこで我々は,ECS と呼ばれる新しい解釈可能な制約付き手法を提案する。
論文 参考訳(メタデータ) (2024-03-26T21:00:06Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Revisiting Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [85.51611950757643]
IAC (Instance-Adaptive Clustering, インスタンス適応クラスタリング) を提案する。
IACは$ MathcalO(n, textpolylog(n) $の計算複雑性を維持しており、大規模問題に対してスケーラブルで実用的なものである。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Deep Conditional Gaussian Mixture Model for Constrained Clustering [7.070883800886882]
制約付きクラスタリングは、部分的にラベル付けされたデータの増加量に関する事前情報を利用することができる。
本稿では、直感的で解釈可能で、勾配変動推論の枠組みで効率的に訓練できる制約付きクラスタリングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-11T13:38:09Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。