論文の概要: Cluster-guided Contrastive Graph Clustering Network
- arxiv url: http://arxiv.org/abs/2301.01098v1
- Date: Tue, 3 Jan 2023 13:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 14:58:27.789064
- Title: Cluster-guided Contrastive Graph Clustering Network
- Title(参考訳): クラスタ誘導コントラストグラフクラスタリングネットワーク
- Authors: Xihong Yang, Yue Liu, Sihang Zhou, Siwei Wang, Wenxuan Tu, Qun Zheng,
Xinwang Liu, Liming Fang, En Zhu
- Abstract要約: クラスタ誘導コントラストグラフクラスタリングネットワーク(CCGC)を提案する。
我々は、兄弟のサブネットワーク間で重みが共有されない特別なシームズエンコーダを設計することにより、グラフの2つのビューを構築する。
意味的な負のサンプルペアを構築するために、異なる高信頼度クラスタの中心を負のサンプルとみなす。
- 参考スコア(独自算出の注目度): 53.16233290797777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Benefiting from the intrinsic supervision information exploitation
capability, contrastive learning has achieved promising performance in the
field of deep graph clustering recently. However, we observe that two drawbacks
of the positive and negative sample construction mechanisms limit the
performance of existing algorithms from further improvement. 1) The quality of
positive samples heavily depends on the carefully designed data augmentations,
while inappropriate data augmentations would easily lead to the semantic drift
and indiscriminative positive samples. 2) The constructed negative samples are
not reliable for ignoring important clustering information. To solve these
problems, we propose a Cluster-guided Contrastive deep Graph Clustering network
(CCGC) by mining the intrinsic supervision information in the high-confidence
clustering results. Specifically, instead of conducting complex node or edge
perturbation, we construct two views of the graph by designing special Siamese
encoders whose weights are not shared between the sibling sub-networks. Then,
guided by the high-confidence clustering information, we carefully select and
construct the positive samples from the same high-confidence cluster in two
views. Moreover, to construct semantic meaningful negative sample pairs, we
regard the centers of different high-confidence clusters as negative samples,
thus improving the discriminative capability and reliability of the constructed
sample pairs. Lastly, we design an objective function to pull close the samples
from the same cluster while pushing away those from other clusters by
maximizing and minimizing the cross-view cosine similarity between positive and
negative samples. Extensive experimental results on six datasets demonstrate
the effectiveness of CCGC compared with the existing state-of-the-art
algorithms.
- Abstract(参考訳): 近年の深層グラフクラスタリングの分野では,本質的な監視情報活用能力から,コントラスト学習が有望なパフォーマンスを達成している。
しかし,正と負の2つのサンプル構成機構の欠点により,既存のアルゴリズムの性能がさらに向上しないことがわかった。
1) 正試料の品質は, 精巧に設計したデータ増量に大きく依存するが, 不適切なデータ増量により, 意味的ドリフトや識別不能な正試料が容易に得られる。
2) 構築した負のサンプルは, 重要なクラスタリング情報を無視する信頼性に乏しい。
これらの問題を解決するために,クラスタ指向の深層グラフクラスタリングネットワーク (CCGC) を提案し,本質的な監視情報を高信頼クラスタリング結果にマイニングする。
具体的には、複雑なノードやエッジの摂動を行う代わりに、兄弟のサブネットワーク間で重みが共有されない特別なシームズエンコーダを設計することにより、グラフの2つのビューを構築する。
そして,高信頼クラスタリング情報から,同じ高信頼クラスタから正のサンプルを2つのビューで慎重に選択・構築する。
さらに, 意味的負のサンプル対を構築するために, 異なる高信頼度クラスタの中心を負のサンプルとみなし, 構築したサンプル対の識別能力と信頼性を改善した。
最後に,正試料と負試料の相互視コサイン類似性を最大化,最小化することにより,同一クラスタからサンプルを抽出し,他のクラスタからサンプルを押下する目的関数を設計する。
6つのデータセットに対する大規模な実験結果は、既存の最先端アルゴリズムと比較してCCGCの有効性を示している。
関連論文リスト
- Adaptive Self-supervised Robust Clustering for Unstructured Data with Unknown Cluster Number [12.926206811876174]
適応型自己教師型ロバストクラスタリング(Adaptive Self-supervised Robust Clustering, ASRC)と呼ばれる非構造化データに適した,新たな自己教師型ディープクラスタリング手法を提案する。
ASRCはグラフ構造とエッジ重みを適応的に学習し、局所構造情報と大域構造情報の両方をキャプチャする。
ASRCは、クラスタ数の事前知識に依存するメソッドよりも優れており、非構造化データのクラスタリングの課題に対処する上での有効性を強調している。
論文 参考訳(メタデータ) (2024-07-29T15:51:09Z) - CLC: Cluster Assignment via Contrastive Representation Learning [9.631532215759256]
コントラスト学習を用いてクラスタ割り当てを直接学習するコントラスト学習ベースのクラスタリング(CLC)を提案する。
完全なImageNetデータセットで53.4%の精度を実現し、既存のメソッドを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-06-08T07:15:13Z) - C3: Cross-instance guided Contrastive Clustering [8.953252452851862]
クラスタリングは、事前に定義されたラベルを使わずに、類似したデータサンプルをクラスタに収集するタスクである。
我々は,新しいコントラストクラスタリング手法であるクロスインスタンスガイドコントラストクラスタリング(C3)を提案する。
提案手法は、ベンチマークコンピュータビジョンデータセット上で最先端のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2022-11-14T06:28:07Z) - Exploring Non-Contrastive Representation Learning for Deep Clustering [23.546602131801205]
ディープクラスタリングのための非コントラスト表現学習は、負の例のない代表的手法であるBYOLに基づいている。
NCCは、すべてのクラスタが十分に分離され、クラスタ内の例がコンパクトな埋め込み空間を形成する。
ImageNet-1Kを含むいくつかのクラスタリングベンチマークデータセットの実験結果は、NCCが最先端の手法よりかなり優れていることを示している。
論文 参考訳(メタデータ) (2021-11-23T12:21:53Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Learning to Cluster Faces via Confidence and Connectivity Estimation [136.5291151775236]
重複する部分グラフを多数必要とせず,完全に学習可能なクラスタリングフレームワークを提案する。
提案手法はクラスタリングの精度を大幅に向上させ,その上で訓練した認識モデルの性能を向上させるが,既存の教師付き手法に比べて桁違いに効率的である。
論文 参考訳(メタデータ) (2020-04-01T13:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。