論文の概要: Deep Clustering with Self-Supervision using Pairwise Similarities
- arxiv url: http://arxiv.org/abs/2405.03590v1
- Date: Mon, 6 May 2024 16:01:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 13:17:09.974139
- Title: Deep Clustering with Self-Supervision using Pairwise Similarities
- Title(参考訳): ペアワイズ類似性を用いた自己スーパービジョンによるディープクラスタリング
- Authors: Mohammadreza Sadeghi, Narges Armanfard,
- Abstract要約: ペアワイズ類似性(DCSS)を用いた自己スーパービジョンを用いた新しいディープクラスタリングフレームワークを提案する。
第1フェーズでは、クラスタ固有の損失を用いてトレーニングされたオートエンコーダを用いて、類似したデータポイントからなるハイパースフィアのようなグループを構築することを提案する。
第2フェーズでは、より複雑なクラスタ分布を調節可能な$K$次元空間を作成するために、ペアワイズ類似性を利用することを提案する。
- 参考スコア(独自算出の注目度): 7.111650988432555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep clustering incorporates embedding into clustering to find a lower-dimensional space appropriate for clustering. In this paper, we propose a novel deep clustering framework with self-supervision using pairwise similarities (DCSS). The proposed method consists of two successive phases. In the first phase, we propose to form hypersphere-like groups of similar data points, i.e. one hypersphere per cluster, employing an autoencoder that is trained using cluster-specific losses. The hyper-spheres are formed in the autoencoder's latent space. In the second phase, we propose to employ pairwise similarities to create a $K$-dimensional space that is capable of accommodating more complex cluster distributions, hence providing more accurate clustering performance. $K$ is the number of clusters. The autoencoder's latent space obtained in the first phase is used as the input of the second phase. The effectiveness of both phases is demonstrated on seven benchmark datasets by conducting a rigorous set of experiments.
- Abstract(参考訳): ディープクラスタリングはクラスタリングに埋め込み、クラスタリングに適した低次元空間を見つける。
本稿では,ペアワイズ類似性(DCSS)を用いた自己スーパービジョンを用いた新しいディープクラスタリングフレームワークを提案する。
提案手法は2つの連続位相からなる。
第1フェーズでは、クラスタ毎の1つのハイパースフィアのようなデータポイントからなるハイパースフィアのようなグループを、クラスタ固有の損失を用いてトレーニングされたオートエンコーダを用いて形成することを提案する。
ハイパースフィアはオートエンコーダの潜在空間で形成される。
第2フェーズでは,より複雑なクラスタ分布を収容し,より正確なクラスタリング性能を実現するために,ペアワイズな類似性を用いて,$K$次元空間を作成することを提案する。
K$はクラスタの数です。
第1フェーズで得られるオートエンコーダの潜伏空間を第2フェーズの入力として使用する。
両フェーズの有効性は、厳密な実験を行い、7つのベンチマークデータセット上で実証される。
関連論文リスト
- Clustering Based on Density Propagation and Subcluster Merging [92.15924057172195]
本稿では,クラスタ数を自動的に決定し,データ空間とグラフ空間の両方に適用可能な密度に基づくノードクラスタリング手法を提案する。
二つのノード間の距離を計算する従来の密度クラスタリング法とは異なり,提案手法は伝播過程を通じて密度を決定する。
論文 参考訳(メタデータ) (2024-11-04T04:09:36Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Distributed Clustering based on Distributional Kernel [14.797889234277978]
本稿では分散クラスタリング(Distributed Clustering)と呼ばれる分散ネットワークにおける分散カーネル(K)またはKDCに基づくクラスタリングのための新しいフレームワークを提案する。
KDCは、すべてのサイトから統合されたクラスタリング結果が、すべてのサイトから統合されたデータセットから中央集権的なクラスタリング結果と等価であることを保証している。
分散クラスタリングは、既存の分散クラスタリング方法よりもはるかに優れたクラスタリング結果をもたらす。
論文 参考訳(メタデータ) (2024-09-14T11:40:54Z) - Learning Uniform Clusters on Hypersphere for Deep Graph-level Clustering [25.350054742471816]
我々はUDGC(Uniform Deep Graph Clustering)と呼ばれる新しいディープグラフレベルのクラスタリング手法を提案する。
UDGCはインスタンスを異なるクラスタに均等に割り当て、次にこれらのクラスタをユニットハイパースフィア上に分散させ、より均一なクラスタレベルの分散と、より小さなクラスタ崩壊につながる。
8つのよく知られたデータセットに関する実証研究は、UDGCが最先端のモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2023-11-23T12:08:20Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - DRBM-ClustNet: A Deep Restricted Boltzmann-Kohonen Architecture for Data
Clustering [0.0]
DRBM-ClustNetと呼ばれるデータクラスタリングのためのベイジアンDeep Restricted Boltzmann-Kohonenアーキテクチャを提案する。
ラベルなしデータの処理は、非線形分離可能なデータセットの効率的なクラスタリングのために、3段階に分けて行われる。
このフレームワークはクラスタリングの精度に基づいて評価され、他の最先端クラスタリング手法と比較してランク付けされる。
論文 参考訳(メタデータ) (2022-05-13T15:12:18Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - K-expectiles clustering [0.0]
本稿では,期待値に基づく分割クラスタリングアルゴリズムを提案する。
固定$tau$クラスタリングと適応$tau$クラスタリングの2つのスキームを提案します。
論文 参考訳(メタデータ) (2021-03-16T21:14:56Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。