論文の概要: Twin Contrastive Learning for Online Clustering
- arxiv url: http://arxiv.org/abs/2210.11680v1
- Date: Fri, 21 Oct 2022 02:12:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:38:47.159540
- Title: Twin Contrastive Learning for Online Clustering
- Title(参考訳): オンラインクラスタリングのための双対コントラスト学習
- Authors: Yunfan Li, Mouxing Yang, Dezhong Peng, Taihao Li, Jiantao Huang, Xi
Peng
- Abstract要約: 本稿では、インスタンスとクラスタレベルで双対学習(TCL)を行うことにより、オンラインクラスタリングを実現することを提案する。
対象のクラスタ番号の次元を持つ特徴空間にデータを投影すると、その特徴行列の行と列がインスタンスとクラスタ表現に対応していることがわかった。
- 参考スコア(独自算出の注目度): 15.9794051341163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes to perform online clustering by conducting twin
contrastive learning (TCL) at the instance and cluster level. Specifically, we
find that when the data is projected into a feature space with a dimensionality
of the target cluster number, the rows and columns of its feature matrix
correspond to the instance and cluster representation, respectively. Based on
the observation, for a given dataset, the proposed TCL first constructs
positive and negative pairs through data augmentations. Thereafter, in the row
and column space of the feature matrix, instance- and cluster-level contrastive
learning are respectively conducted by pulling together positive pairs while
pushing apart the negatives. To alleviate the influence of intrinsic
false-negative pairs and rectify cluster assignments, we adopt a
confidence-based criterion to select pseudo-labels for boosting both the
instance- and cluster-level contrastive learning. As a result, the clustering
performance is further improved. Besides the elegant idea of twin contrastive
learning, another advantage of TCL is that it could independently predict the
cluster assignment for each instance, thus effortlessly fitting online
scenarios. Extensive experiments on six widely-used image and text benchmarks
demonstrate the effectiveness of TCL. The code will be released on GitHub.
- Abstract(参考訳): 本稿では,インスタンスとクラスタレベルで2つのコントラスト学習(tcl)を行うことで,オンラインクラスタリングを実現する。
具体的には、対象クラスタ番号の次元を持つ特徴空間にデータを投影すると、その特徴行列の行と列がそれぞれインスタンスとクラスタ表現に対応することが分かる。
この観測に基づいて、与えられたデータセットに対して、提案したTCLは、まずデータ拡張を通じて正と負のペアを構成する。
その後、特徴行列の行と列空間において、インスタンスとクラスタレベルのコントラスト学習は、それぞれ負のペアを分割しながら正のペアをまとめることで行われる。
固有偽陰性ペアの影響を緩和し、クラスタ割り当てを正すために、インスタンスレベルおよびクラスタレベルのコントラスト学習を促進させる擬似ラベルを選択するための信頼度に基づく基準を採用する。
その結果、クラスタリング性能がさらに向上した。
双対の対照的な学習というエレガントなアイデアに加えて、TCLのもうひとつのメリットは、各インスタンスのクラスタ割り当てを独立して予測できることだ。
広く使用されている6つの画像とテキストベンチマークに関する広範囲な実験がtclの有効性を示している。
コードはGitHubでリリースされる。
関連論文リスト
- CLC: Cluster Assignment via Contrastive Representation Learning [9.631532215759256]
コントラスト学習を用いてクラスタ割り当てを直接学習するコントラスト学習ベースのクラスタリング(CLC)を提案する。
完全なImageNetデータセットで53.4%の精度を実現し、既存のメソッドを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-06-08T07:15:13Z) - Cluster-guided Contrastive Graph Clustering Network [53.16233290797777]
クラスタ誘導コントラストグラフクラスタリングネットワーク(CCGC)を提案する。
我々は、兄弟のサブネットワーク間で重みが共有されない特別なシームズエンコーダを設計することにより、グラフの2つのビューを構築する。
意味的な負のサンプルペアを構築するために、異なる高信頼度クラスタの中心を負のサンプルとみなす。
論文 参考訳(メタデータ) (2023-01-03T13:42:38Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Exploring Non-Contrastive Representation Learning for Deep Clustering [23.546602131801205]
ディープクラスタリングのための非コントラスト表現学習は、負の例のない代表的手法であるBYOLに基づいている。
NCCは、すべてのクラスタが十分に分離され、クラスタ内の例がコンパクトな埋め込み空間を形成する。
ImageNet-1Kを含むいくつかのクラスタリングベンチマークデータセットの実験結果は、NCCが最先端の手法よりかなり優れていることを示している。
論文 参考訳(メタデータ) (2021-11-23T12:21:53Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Unsupervised Visual Representation Learning by Online Constrained
K-Means [44.38989920488318]
クラスタ識別は、教師なし表現学習の効果的な前提課題である。
オンラインtextbfConstrained textbfK-mtextbfeans (textbfCoKe) を用いたクラスタリングに基づく新しいプリテキストタスクを提案する。
当社のオンライン割当て方式は,グローバルな最適化に近づくための理論的保証を持っている。
論文 参考訳(メタデータ) (2021-05-24T20:38:32Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。