論文の概要: Doubly Contrastive Deep Clustering
- arxiv url: http://arxiv.org/abs/2103.05484v1
- Date: Tue, 9 Mar 2021 15:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:55:20.968525
- Title: Doubly Contrastive Deep Clustering
- Title(参考訳): 二重コントラスト深層クラスタリング
- Authors: Zhiyuan Dang, Cheng Deng, Xu Yang, Heng Huang
- Abstract要約: 本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
- 参考スコア(独自算出の注目度): 135.7001508427597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep clustering successfully provides more effective features than
conventional ones and thus becomes an important technique in current
unsupervised learning. However, most deep clustering methods ignore the vital
positive and negative pairs introduced by data augmentation and further the
significance of contrastive learning, which leads to suboptimal performance. In
this paper, we present a novel Doubly Contrastive Deep Clustering (DCDC)
framework, which constructs contrastive loss over both sample and class views
to obtain more discriminative features and competitive results. Specifically,
for the sample view, we set the class distribution of the original sample and
its augmented version as positive sample pairs and set one of the other
augmented samples as negative sample pairs. After that, we can adopt the
sample-wise contrastive loss to pull positive sample pairs together and push
negative sample pairs apart. Similarly, for the class view, we build the
positive and negative pairs from the sample distribution of the class. In this
way, two contrastive losses successfully constrain the clustering results of
mini-batch samples in both sample and class level. Extensive experimental
results on six benchmark datasets demonstrate the superiority of our proposed
model against state-of-the-art methods. Particularly in the challenging dataset
Tiny-ImageNet, our method leads 5.6\% against the latest comparison method. Our
code will be available at \url{https://github.com/ZhiyuanDang/DCDC}.
- Abstract(参考訳): ディープクラスタリングは、従来のものよりも効果的な機能を提供し、現在の教師なし学習において重要な技術となる。
しかし、ほとんどのディープクラスタリングメソッドは、データ増強によって導入された重要な正と負のペアを無視し、コントラスト学習の重要性をさらに高めます。
本稿では,サンプルビューとクラスビューの両ビューのコントラスト損失を構成し,より識別的特徴と競合的な結果を得る,二重対比型深層クラスタリング(dcdc)フレームワークを提案する。
具体的には、サンプルビューにおいて、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定し、他の拡張サンプルの1つを負のサンプルペアとして設定する。
その後、正のサンプルペアを一緒に引っ張り、負のサンプルペアを離れてプッシュするために、サンプルワイズコントラスト損失を採用できます。
同様に、クラスビューでは、クラスのサンプル分布から正と負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
6つのベンチマークデータセットの広範な実験結果から,提案モデルの最先端手法に対する優位性が示された。
特に挑戦的なデータセットであるTiny-ImageNetでは,最新の比較手法に対して5.6\%を導いた。
コードは \url{https://github.com/ZhiyuanDang/DCDC} で入手できます。
関連論文リスト
- Synthetic Hard Negative Samples for Contrastive Learning [8.776888865665024]
本稿では,コントラスト学習のための新しい特徴レベル手法,すなわち合成硬質負のサンプルをサンプリングする手法を提案する。
負試料を混合し, アンカー試料と他の負試料とのコントラストを制御して, より硬い負試料を生成する。
提案手法は,画像データセットの分類性能を向上し,既存の手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2023-04-06T09:54:35Z) - Cluster-guided Contrastive Graph Clustering Network [53.16233290797777]
クラスタ誘導コントラストグラフクラスタリングネットワーク(CCGC)を提案する。
我々は、兄弟のサブネットワーク間で重みが共有されない特別なシームズエンコーダを設計することにより、グラフの2つのビューを構築する。
意味的な負のサンプルペアを構築するために、異なる高信頼度クラスタの中心を負のサンプルとみなす。
論文 参考訳(メタデータ) (2023-01-03T13:42:38Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - Contrastive Learning with Hard Negative Samples [80.12117639845678]
我々は, 厳密な陰性サンプルを選択するために, 教師なしサンプリング手法を新たに開発する。
このサンプリングの制限ケースは、各クラスをしっかりとクラスタ化し、可能な限り異なるクラスを遠くにプッシュする表現をもたらす。
提案手法は、複数のモードをまたいだダウンストリーム性能を改善し、実装するコード行数が少なく、計算オーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-10-09T14:18:53Z) - Conditional Negative Sampling for Contrastive Learning of Visual
Representations [19.136685699971864]
難解な負の選択、あるいは現在の例に類似した選択は、より強い表現をもたらす可能性があることを示す。
それぞれの正の周りの「リング」に、負を条件付きでサンプリングする相互情報推定器のファミリーを導入する。
これらの推定器は, 偏差が大きいが, NCEよりも分散度が低いことが証明された。
論文 参考訳(メタデータ) (2020-10-05T14:17:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。