論文の概要: Deep Embedding Clustering Driven by Sample Stability
- arxiv url: http://arxiv.org/abs/2401.15989v1
- Date: Mon, 29 Jan 2024 09:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 15:28:22.208036
- Title: Deep Embedding Clustering Driven by Sample Stability
- Title(参考訳): サンプル安定性による深層埋め込みクラスタリング
- Authors: Zhanwen Cheng, Feijiang Li, Jieting Wang, and Yuhua Qian
- Abstract要約: サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 16.53706617383543
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep clustering methods improve the performance of clustering tasks by
jointly optimizing deep representation learning and clustering. While numerous
deep clustering algorithms have been proposed, most of them rely on
artificially constructed pseudo targets for performing clustering. This
construction process requires some prior knowledge, and it is challenging to
determine a suitable pseudo target for clustering. To address this issue, we
propose a deep embedding clustering algorithm driven by sample stability
(DECS), which eliminates the requirement of pseudo targets. Specifically, we
start by constructing the initial feature space with an autoencoder and then
learn the cluster-oriented embedding feature constrained by sample stability.
The sample stability aims to explore the deterministic relationship between
samples and all cluster centroids, pulling samples to their respective clusters
and keeping them away from other clusters with high determinacy. We analyzed
the convergence of the loss using Lipschitz continuity in theory, which
verifies the validity of the model. The experimental results on five datasets
illustrate that the proposed method achieves superior performance compared to
state-of-the-art clustering approaches.
- Abstract(参考訳): ディープクラスタリング手法は、ディープ表現学習とクラスタリングを共同で最適化することで、クラスタリングタスクのパフォーマンスを向上させる。
多くのディープクラスタリングアルゴリズムが提案されているが、そのほとんどはクラスタリングを行うために人工的に構築された擬似ターゲットに依存している。
この構築プロセスには事前の知識が必要であり、クラスタリングに適した疑似ターゲットを決定するのは難しい。
この問題に対処するために,サンプル安定性(decs)によって駆動される深層埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
サンプル安定性は、サンプルと全てのクラスタセントロイド間の決定論的関係を探求することを目的としており、サンプルをそれぞれのクラスタに引き寄せ、高い決定性で他のクラスタから遠ざけている。
モデルの有効性を検証する理論におけるリプシッツ連続性を用いて損失の収束を解析した。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Perfect Spectral Clustering with Discrete Covariates [68.8204255655161]
本稿では,大規模なスパースネットワークのクラスにおいて,高い確率で完全クラスタリングを実現するスペクトルアルゴリズムを提案する。
本手法は,スペクトルクラスタリングによる一貫した潜在構造回復を保証する最初の方法である。
論文 参考訳(メタデータ) (2022-05-17T01:41:06Z) - Self-Evolutionary Clustering [1.662966122370634]
既存のディープクラスタリング手法の多くは、単純な距離比較に基づいており、手作り非線形マッピングによって生成されたターゲット分布に大きく依存している。
新たなモジュール型自己進化クラスタリング(Self-EvoC)フレームワークが構築され,自己管理的な分類によってクラスタリング性能が向上する。
このフレームワークは、サンプルアウトレイラを効率よく識別し、自己監督の助けを借りて、より良い目標分布を生成することができる。
論文 参考訳(メタデータ) (2022-02-21T19:38:18Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - Learning the Precise Feature for Cluster Assignment [39.320210567860485]
表現学習とクラスタリングを1つのパイプラインに初めて統合するフレームワークを提案する。
提案フレームワークは,近年開発された生成モデルを用いて,本質的な特徴を学習する能力を活用している。
実験の結果,提案手法の性能は,最先端の手法よりも優れているか,少なくとも同等であることがわかった。
論文 参考訳(メタデータ) (2021-06-11T04:08:54Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。