論文の概要: LSD-C: Linearly Separable Deep Clusters
- arxiv url: http://arxiv.org/abs/2006.10039v1
- Date: Wed, 17 Jun 2020 17:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 20:10:16.847722
- Title: LSD-C: Linearly Separable Deep Clusters
- Title(参考訳): LSD-C: 線形分離可能なディープクラスタ
- Authors: Sylvestre-Alvise Rebuffi, Sebastien Ehrhardt, Kai Han, Andrea Vedaldi,
Andrew Zisserman
- Abstract要約: ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
- 参考スコア(独自算出の注目度): 145.89790963544314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present LSD-C, a novel method to identify clusters in an unlabeled
dataset. Our algorithm first establishes pairwise connections in the feature
space between the samples of the minibatch based on a similarity metric. Then
it regroups in clusters the connected samples and enforces a linear separation
between clusters. This is achieved by using the pairwise connections as targets
together with a binary cross-entropy loss on the predictions that the
associated pairs of samples belong to the same cluster. This way, the feature
representation of the network will evolve such that similar samples in this
feature space will belong to the same linearly separated cluster. Our method
draws inspiration from recent semi-supervised learning practice and proposes to
combine our clustering algorithm with self-supervised pretraining and strong
data augmentation. We show that our approach significantly outperforms
competitors on popular public image benchmarks including CIFAR 10/100, STL 10
and MNIST, as well as the document classification dataset Reuters 10K.
- Abstract(参考訳): ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
提案アルゴリズムは,まず,類似度測定値に基づいて,ミニバッチのサンプル間の特徴空間におけるペアワイズ接続を確立する。
その後、接続されたサンプルをクラスタに再グループ化し、クラスタ間の線形分離を実行する。
これはペアワイズ接続をターゲットとして使用し、関連するサンプルペアが同じクラスタに属するという予測において、バイナリクロスエントロピー損失と併用することで実現される。
このようにして、ネットワークの特徴表現は、この特徴空間で同様のサンプルが同じ線形に分離されたクラスタに属するように進化する。
本手法は,最近の半教師付き学習から着想を得て,自己教師付き事前学習と強いデータ拡張を組み合わせたクラスタリングアルゴリズムを提案する。
提案手法は,cifar 10/100,stl 10,mnist,およびドキュメント分類データセット reuters 10k など,人気のあるパブリックイメージベンチマークの競合を著しく上回っている。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - ClusterNet: A Perception-Based Clustering Model for Scattered Data [16.326062082938215]
クラスタ分離は、一般的に広く使用されているクラスタリング技術によって取り組まれるタスクである。
本稿では,分散データを直接操作する学習戦略を提案する。
私たちは、ポイントベースのディープラーニングモデルであるClusterNetをトレーニングし、クラスタ分離性に対する人間の認識を反映するように訓練します。
論文 参考訳(メタデータ) (2023-04-27T13:41:12Z) - C3: Cross-instance guided Contrastive Clustering [8.953252452851862]
クラスタリングは、事前に定義されたラベルを使わずに、類似したデータサンプルをクラスタに収集するタスクである。
我々は,新しいコントラストクラスタリング手法であるクロスインスタンスガイドコントラストクラスタリング(C3)を提案する。
提案手法は、ベンチマークコンピュータビジョンデータセット上で最先端のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2022-11-14T06:28:07Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Implicit Sample Extension for Unsupervised Person Re-Identification [97.46045935897608]
クラスタリングは、時に異なる真のアイデンティティを混ぜ合わせたり、同じアイデンティティを2つ以上のサブクラスタに分割する。
本稿では,クラスタ境界周辺のサポートサンプルを生成するために,Implicit Sample Extension (OurWholeMethod)法を提案する。
提案手法の有効性を実証し,教師なしのRe-IDに対して最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-14T11:41:48Z) - Is it all a cluster game? -- Exploring Out-of-Distribution Detection
based on Clustering in the Embedding Space [7.856998585396422]
新しい入力がトレーニング分布と大きく異なるタイミングを決定するためには、ディープニューラルネットワークの安全性クリティカルな応用が不可欠である。
埋め込み空間におけるクラスタの構造と分離について検討し、教師付きコントラスト学習が十分に分離されたクラスタに繋がることを示す。
異なるトレーニング方法、クラスタリング戦略、距離メトリクス、しきい値設定アプローチの分析において、明確な勝者は存在しない。
論文 参考訳(メタデータ) (2022-03-16T11:22:23Z) - Cluster Analysis with Deep Embeddings and Contrastive Learning [0.0]
本研究は,深層埋め込みから画像クラスタリングを行うための新しいフレームワークを提案する。
提案手法では,クラスタセンターの表現をエンドツーエンドで学習し,予測する。
我々のフレームワークは広く受け入れられているクラスタリング手法と同等に動作し、CIFAR-10データセット上で最先端のコントラスト学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-26T22:18:15Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。