論文の概要: Graph Contrastive Clustering
- arxiv url: http://arxiv.org/abs/2104.01429v1
- Date: Sat, 3 Apr 2021 15:32:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:39:19.833368
- Title: Graph Contrastive Clustering
- Title(参考訳): グラフコントラストクラスタリング
- Authors: Huasong Zhong, Jianlong Wu, Chong Chen, Jianqiang Huang, Minghua Deng,
Liqiang Nie, Zhouchen Lin, Xian-Sheng Hua
- Abstract要約: 本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
- 参考スコア(独自算出の注目度): 131.67881457114316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, some contrastive learning methods have been proposed to
simultaneously learn representations and clustering assignments, achieving
significant improvements. However, these methods do not take the category
information and clustering objective into consideration, thus the learned
representations are not optimal for clustering and the performance might be
limited. Towards this issue, we first propose a novel graph contrastive
learning framework, which is then applied to the clustering task and we come up
with the Graph Constrastive Clustering~(GCC) method. Different from basic
contrastive clustering that only assumes an image and its augmentation should
share similar representation and clustering assignments, we lift the
instance-level consistency to the cluster-level consistency with the assumption
that samples in one cluster and their augmentations should all be similar.
Specifically, on the one hand, the graph Laplacian based contrastive loss is
proposed to learn more discriminative and clustering-friendly features. On the
other hand, a novel graph-based contrastive learning strategy is proposed to
learn more compact clustering assignments. Both of them incorporate the latent
category information to reduce the intra-cluster variance while increasing the
inter-cluster variance. Experiments on six commonly used datasets demonstrate
the superiority of our proposed approach over the state-of-the-art methods.
- Abstract(参考訳): 近年,表現とクラスタリングの課題を同時に学習し,大幅な改善を達成するためのコントラスト学習手法が提案されている。
しかし、これらの手法はカテゴリ情報やクラスタリングの目的を考慮していないため、学習された表現はクラスタリングに最適ではなく、性能が制限される可能性がある。
そこで我々はまず,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,GCC(Graph Constrastive Clustering)法を提案する。
イメージと拡張のみを仮定した基本的なコントラストクラスタリングとは異なり、インスタンスレベルの一貫性をクラスタレベルの一貫性に引き上げ、ひとつのクラスタ内のサンプルとその拡張がすべて同じであるべきだと仮定します。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
どちらも潜在カテゴリ情報を取り込んでクラスタ内分散を削減し、クラスタ間分散を増加させる。
6つの一般的なデータセットの実験は、最先端の手法よりも提案手法の方が優れていることを示す。
関連論文リスト
- Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Joint Debiased Representation and Image Clustering Learning with
Self-Supervision [3.1806743741013657]
我々は,新しい共同クラスタリングとコントラスト学習フレームワークを開発した。
不均衡なデータセットの下位クラスタ化を避けるために、デバイアスド・コントラストの損失に適応する。
論文 参考訳(メタデータ) (2022-09-14T21:23:41Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Effective and Efficient Graph Learning for Multi-view Clustering [173.8313827799077]
マルチビュークラスタリングのための効率的かつ効率的なグラフ学習モデルを提案する。
本手法はテンソルシャッテンp-ノルムの最小化により異なるビューのグラフ間のビュー類似性を利用する。
提案アルゴリズムは時間経済であり,安定した結果を得るとともに,データサイズによく対応している。
論文 参考訳(メタデータ) (2021-08-15T13:14:28Z) - Clustering by Maximizing Mutual Information Across Views [62.21716612888669]
本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-24T15:36:49Z) - Learning the Precise Feature for Cluster Assignment [39.320210567860485]
表現学習とクラスタリングを1つのパイプラインに初めて統合するフレームワークを提案する。
提案フレームワークは,近年開発された生成モデルを用いて,本質的な特徴を学習する能力を活用している。
実験の結果,提案手法の性能は,最先端の手法よりも優れているか,少なくとも同等であることがわかった。
論文 参考訳(メタデータ) (2021-06-11T04:08:54Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Representation Learning for Clustering via Building Consensus [3.7434090710577608]
Unsupervised Representation Learning (ConCURL) を用いたコンセンサスクラスタリングの提案
ConCURLは5つのイメージデータセットのうち4つで、最先端のメソッドよりもクラスタリングパフォーマンスが向上する。
実世界のクラスタリングタスクにおける課題を反映するために,クラスタリングの評価手順を拡張した。
論文 参考訳(メタデータ) (2021-05-04T05:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。