論文の概要: Deep Robust Clustering by Contrastive Learning
- arxiv url: http://arxiv.org/abs/2008.03030v2
- Date: Thu, 27 Aug 2020 05:42:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 01:29:29.914473
- Title: Deep Robust Clustering by Contrastive Learning
- Title(参考訳): コントラスト学習による深いロバストクラスタリング
- Authors: Huasong Zhong, Chong Chen, Zhongming Jin, Xian-Sheng Hua
- Abstract要約: 本稿では,非競合データを用いたクラスタリング学習のために,Deep Robust Clustering (DRC)を提案する。
DRCは、セマンティッククラスタリングの割り当てと表現機能の両方の観点から、ディープクラスタリングを考察している。
広く採用されている6つのディープクラスタリングベンチマークの実験は、安定性と精度の両方においてDRCの優位性を示している。
- 参考スコア(独自算出の注目度): 31.161207608881472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, many unsupervised deep learning methods have been proposed to learn
clustering with unlabelled data. By introducing data augmentation, most of the
latest methods look into deep clustering from the perspective that the original
image and its transformation should share similar semantic clustering
assignment. However, the representation features could be quite different even
they are assigned to the same cluster since softmax function is only sensitive
to the maximum value. This may result in high intra-class diversities in the
representation feature space, which will lead to unstable local optimal and
thus harm the clustering performance. To address this drawback, we proposed
Deep Robust Clustering (DRC). Different from existing methods, DRC looks into
deep clustering from two perspectives of both semantic clustering assignment
and representation feature, which can increase inter-class diversities and
decrease intra-class diversities simultaneously. Furthermore, we summarized a
general framework that can turn any maximizing mutual information into
minimizing contrastive loss by investigating the internal relationship between
mutual information and contrastive learning. And we successfully applied it in
DRC to learn invariant features and robust clusters. Extensive experiments on
six widely-adopted deep clustering benchmarks demonstrate the superiority of
DRC in both stability and accuracy. e.g., attaining 71.6% mean accuracy on
CIFAR-10, which is 7.1% higher than state-of-the-art results.
- Abstract(参考訳): 近年,クラスタリング学習のための教師なし深層学習法が数多く提案されている。
データ拡張を導入することで、ほとんどの最新手法は、元のイメージとその変換が同様のセマンティッククラスタリングの割り当てを共有するべきだという観点から、ディープクラスタリングに注目している。
しかし、Softmax関数は最大値にのみ敏感であるため、同じクラスタに割り当てられたとしても、表現機能はかなり異なる可能性がある。
これにより、表現特徴空間のクラス内における高いばらつきが生じ、不安定な局所最適となり、クラスタリング性能が損なわれる。
この欠点に対処するため、我々はDeep Robust Clustering (DRC)を提案した。
従来の手法と異なり、DRCはセマンティッククラスタリングの割り当てと表現機能という2つの視点からディープクラスタリングを検討しており、クラス間の多様性を増大させ、クラス内の多様性を同時に減少させることができる。
さらに, 相互情報とコントラスト学習の関係を考察することにより, 相互情報の最大化を最小化できる汎用的な枠組みをまとめた。
そして、DRCにそれをうまく適用して、不変機能やロバストクラスタを学びました。
広く採用されている6つのディープクラスタリングベンチマークの大規模な実験は、安定性と精度の両方においてDRCの優位性を示している。
例えば、cifar-10の平均精度は71.6%に達し、最新結果よりも7.1%高い。
関連論文リスト
- Revisiting Self-Supervised Heterogeneous Graph Learning from Spectral Clustering Perspective [52.662463893268225]
自己教師付きヘテロジニアスグラフ学習(SHGL)は様々なシナリオにおいて有望な可能性を示している。
既存のSHGLメソッドには2つの大きな制限がある。
ランクと二重整合性制約によって強化された新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-01T09:33:20Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - New Intent Discovery with Attracting and Dispersing Prototype [32.607743914487614]
New Intent Discovery (NID)は、ラベル付きと大規模にラベル付けされていないデータの助けを借りて、新しい意図のカテゴリを認識し、推論することを目的としている。
本稿では,ロバスト・適応型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-25T16:31:55Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Deep Clustering of Tabular Data by Weighted Gaussian Distribution Learning [0.0]
本稿では,自動エンコーダ遅延空間(G-CEALS)におけるガウスクラスタ埋め込みという,表型データのための最初のディープクラスタリング手法の1つを開発する。
G-CEALS法は、クラスタリング精度に基づいて平均ランク順を2.9(1.7)と2.8(1.7)とし、16のデータセット上で調整されたRand index(ARI)スコアをそれぞれ示し、9つの最先端クラスタリング法より優れている。
論文 参考訳(メタデータ) (2023-01-02T18:45:53Z) - Cluster Analysis with Deep Embeddings and Contrastive Learning [0.0]
本研究は,深層埋め込みから画像クラスタリングを行うための新しいフレームワークを提案する。
提案手法では,クラスタセンターの表現をエンドツーエンドで学習し,予測する。
我々のフレームワークは広く受け入れられているクラスタリング手法と同等に動作し、CIFAR-10データセット上で最先端のコントラスト学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-26T22:18:15Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。