論文の概要: Cluster Analysis with Deep Embeddings and Contrastive Learning
- arxiv url: http://arxiv.org/abs/2109.12714v1
- Date: Sun, 26 Sep 2021 22:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:48:24.334167
- Title: Cluster Analysis with Deep Embeddings and Contrastive Learning
- Title(参考訳): 深層埋め込みとコントラスト学習によるクラスタ分析
- Authors: Ramakrishnan Sundareswaran, Jansel Herrera-Gerena, John Just, Ali
Janessari
- Abstract要約: 本研究は,深層埋め込みから画像クラスタリングを行うための新しいフレームワークを提案する。
提案手法では,クラスタセンターの表現をエンドツーエンドで学習し,予測する。
我々のフレームワークは広く受け入れられているクラスタリング手法と同等に動作し、CIFAR-10データセット上で最先端のコントラスト学習手法より優れています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Unsupervised disentangled representation learning is a long-standing problem
in computer vision. This work proposes a novel framework for performing image
clustering from deep embeddings by combining instance-level contrastive
learning with a deep embedding based cluster center predictor. Our approach
jointly learns representations and predicts cluster centers in an end-to-end
manner. This is accomplished via a three-pronged approach that combines a
clustering loss, an instance-wise contrastive loss, and an anchor loss. Our
fundamental intuition is that using an ensemble loss that incorporates
instance-level features and a clustering procedure focusing on semantic
similarity reinforces learning better representations in the latent space. We
observe that our method performs exceptionally well on popular vision datasets
when evaluated using standard clustering metrics such as Normalized Mutual
Information (NMI), in addition to producing geometrically well-separated
cluster embeddings as defined by the Euclidean distance. Our framework performs
on par with widely accepted clustering methods and outperforms the
state-of-the-art contrastive learning method on the CIFAR-10 dataset with an
NMI score of 0.772, a 7-8% improvement on the strong baseline.
- Abstract(参考訳): 教師なし表現学習(unsupervised disentangled representation learning)は、コンピュータビジョンにおける長年の問題である。
本稿では,インスタンスレベルのコントラスト学習と深層埋め込み型クラスタセンタを組み合わせることで,深層埋め込みから画像クラスタリングを行うための新しいフレームワークを提案する。
提案手法は,クラスタセンターをエンドツーエンドに表現し,予測する。
これは、クラスタリング損失、インスタンス単位のコントラスト損失、アンカー損失を組み合わせた3段階のアプローチによって実現される。
我々の基本的な直感は、インスタンスレベルの特徴を組み込んだアンサンブルロスと、意味的類似性を重視したクラスタリング手順を用いることで、潜在空間におけるより良い表現の学習が強化されるということです。
本手法は,正規化相互情報(NMI)などの標準クラスタリング指標を用いて,ユークリッド距離によって定義された幾何学的に分離されたクラスタ埋め込みを生成するとともに,一般的な視覚データセットに対して極めてよく機能する。
このフレームワークは広く受け入れられているクラスタリング手法に匹敵し、cifar-10データセットにおける最先端のコントラスト学習法を0.772のnmiスコアで上回り、強力なベースラインを7-8%改善した。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Unfolding ADMM for Enhanced Subspace Clustering of Hyperspectral Images [43.152314090830174]
本稿では,スパースサブスペースクラスタリングのためのマルチプライヤの交互方向法(ADMM)に基づく反復解法を展開させることにより,ハイパースペクトル画像(HSI)のための革新的なクラスタリングアーキテクチャを提案する。
提案手法は, 構造保存モジュールの一部として, K近傍近傍のアルゴリズムを用いて, HSIデータの構造特性をよく把握する。
論文 参考訳(メタデータ) (2024-04-10T15:51:46Z) - Deep Temporal Contrastive Clustering [21.660509622172274]
本稿では,時間差の深いクラスタリング手法を提案する。
対照的な学習パラダイムを、ディープ時系列クラスタリング研究に取り入れている。
様々な時系列データセットの実験は、最先端技術に対する我々のアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2022-12-29T16:43:34Z) - Exploring Non-Contrastive Representation Learning for Deep Clustering [23.546602131801205]
ディープクラスタリングのための非コントラスト表現学習は、負の例のない代表的手法であるBYOLに基づいている。
NCCは、すべてのクラスタが十分に分離され、クラスタ内の例がコンパクトな埋め込み空間を形成する。
ImageNet-1Kを含むいくつかのクラスタリングベンチマークデータセットの実験結果は、NCCが最先端の手法よりかなり優れていることを示している。
論文 参考訳(メタデータ) (2021-11-23T12:21:53Z) - Clustering by Maximizing Mutual Information Across Views [62.21716612888669]
本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-24T15:36:49Z) - Learning the Precise Feature for Cluster Assignment [39.320210567860485]
表現学習とクラスタリングを1つのパイプラインに初めて統合するフレームワークを提案する。
提案フレームワークは,近年開発された生成モデルを用いて,本質的な特徴を学習する能力を活用している。
実験の結果,提案手法の性能は,最先端の手法よりも優れているか,少なくとも同等であることがわかった。
論文 参考訳(メタデータ) (2021-06-11T04:08:54Z) - Clustering-friendly Representation Learning via Instance Discrimination
and Feature Decorrelation [0.0]
本稿では,インスタンス識別と特徴デコレーションを用いたクラスタリングに親しみやすい表現学習手法を提案する。
CIFAR-10とImageNet-10を用いた画像クラスタリングの評価では,それぞれ81.5%,95.4%の精度が得られた。
論文 参考訳(メタデータ) (2021-05-31T22:59:31Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。