論文の概要: Contrastive Deep Graph Clustering with Learnable Augmentation
- arxiv url: http://arxiv.org/abs/2212.03559v1
- Date: Wed, 7 Dec 2022 10:19:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 16:32:10.945302
- Title: Contrastive Deep Graph Clustering with Learnable Augmentation
- Title(参考訳): 学習可能な拡張による対比深部グラフクラスタリング
- Authors: Xihong Yang, Yue Liu, Sihang Zhou, Siwei Wang, Xinwang Liu, En Zhu
- Abstract要約: 本稿では,GCC-LDA(Learningable Graph Data Augmentation)を用いたグラフコントラストクラスタリング手法を提案する。
本フレームワークでは,構造レベルと属性レベルの両方の強化学習のために,構造拡張器と属性拡張器を構築した。
6つのベンチマークデータセットに対するGCC-LDAの有効性を示す実験。
- 参考スコア(独自算出の注目度): 57.501674624697166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph contrastive learning is an important method for deep graph clustering.
The existing methods first generate the graph views with stochastic
augmentations and then train the network with a cross-view consistency
principle. Although good performance has been achieved, we observe that the
existing augmentation methods are usually random and rely on pre-defined
augmentations, which is insufficient and lacks negotiation between the final
clustering task. To solve the problem, we propose a novel Graph Contrastive
Clustering method with the Learnable graph Data Augmentation (GCC-LDA), which
is optimized completely by the neural networks. An adversarial learning
mechanism is designed to keep cross-view consistency in the latent space while
ensuring the diversity of augmented views. In our framework, a structure
augmentor and an attribute augmentor are constructed for augmentation learning
in both structure level and attribute level. To improve the reliability of the
learned affinity matrix, clustering is introduced to the learning procedure and
the learned affinity matrix is refined with both the high-confidence
pseudo-label matrix and the cross-view sample similarity matrix. During the
training procedure, to provide persistent optimization for the learned view, we
design a two-stage training strategy to obtain more reliable clustering
information. Extensive experimental results demonstrate the effectiveness of
GCC-LDA on six benchmark datasets.
- Abstract(参考訳): グラフの対比学習はディープグラフクラスタリングの重要な手法である。
既存の手法はまず確率的な拡張でグラフビューを生成し、次にクロスビュー一貫性の原則でネットワークをトレーニングする。
性能は良好だが,既存の拡張手法は通常ランダムであり,事前定義された拡張に依存しており,これは不十分であり,最終クラスタリングタスク間の交渉が不十分である。
そこで本研究では,ニューラルネットワークによって完全に最適化されたLearable Graph Data Augmentation (GCC-LDA) を用いたグラフコントラストクラスタリング手法を提案する。
対角学習機構は、拡張ビューの多様性を確保しつつ、潜在空間におけるクロスビュー一貫性を維持するように設計されている。
本フレームワークでは,構造レベルと属性レベルの両方の強化学習のために,構造拡張器と属性拡張器を構築した。
学習親和性行列の信頼性を向上させるため、学習手順にクラスタリングを導入し、高信頼擬似ラベル行列とクロスビューサンプル類似性行列の両方を用いて学習親和性行列を洗練する。
学習過程において,学習視点に対する永続的最適化を提供するため,より信頼性の高いクラスタリング情報を得るために,2段階のトレーニング戦略を設計する。
6つのベンチマークデータセットに対するGCC-LDAの有効性を示した。
関連論文リスト
- A Simplified Framework for Contrastive Learning for Node Representations [2.277447144331876]
グラフにノードを埋め込むために,グラフニューラルネットワークと組み合わせてコントラスト学習を展開できる可能性を検討する。
組込み行列の単純なカラムワイド後処理により, 組込み結果の品質とトレーニング時間を大幅に改善できることを示す。
この修正により、下流の分類タスクは最大1.5%改善され、8つの異なるベンチマークのうち6つで既存の最先端のアプローチに勝っている。
論文 参考訳(メタデータ) (2023-05-01T02:04:36Z) - Cluster-guided Contrastive Graph Clustering Network [53.16233290797777]
クラスタ誘導コントラストグラフクラスタリングネットワーク(CCGC)を提案する。
我々は、兄弟のサブネットワーク間で重みが共有されない特別なシームズエンコーダを設計することにより、グラフの2つのビューを構築する。
意味的な負のサンプルペアを構築するために、異なる高信頼度クラスタの中心を負のサンプルとみなす。
論文 参考訳(メタデータ) (2023-01-03T13:42:38Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Mixing Consistent Deep Clustering [3.5786621294068373]
良い潜在表現は、2つの潜在表現の線形を復号する際に意味的に混合出力を生成する。
本稿では,表現をリアルに見せるための混合一貫性深層クラスタリング手法を提案する。
提案手法は,クラスタリング性能を向上させるために,既存のオートエンコーダに付加可能であることを示す。
論文 参考訳(メタデータ) (2020-11-03T19:47:06Z) - An unsupervised deep learning framework via integrated optimization of
representation learning and GMM-based modeling [31.334196673143257]
本稿では,ディープ表現とGMMに基づくディープモデリングの両面において,共同学習の新たな原則を提案する。
類似分野の既存の作業と比較すると、目的関数は2つの学習目標を持ち、共同で最適化されるように作成される。
クラスタ間距離を小さくすることでクラスタのコンパクト性を著しく向上し、クラスタ間距離を増大させることで分離性を向上させる。
論文 参考訳(メタデータ) (2020-09-11T04:57:03Z) - Dual Adversarial Auto-Encoders for Clustering [152.84443014554745]
教師なしクラスタリングのためのDual-AAE(Dual-AAE)を提案する。
Dual-AAEの目的関数に対する変分推論を行うことで,一対のオートエンコーダをトレーニングすることで最適化可能な新たな再構成損失を導出する。
4つのベンチマーク実験により、Dual-AAEは最先端のクラスタリング手法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-23T13:16:34Z) - Deep Robust Clustering by Contrastive Learning [31.161207608881472]
本稿では,非競合データを用いたクラスタリング学習のために,Deep Robust Clustering (DRC)を提案する。
DRCは、セマンティッククラスタリングの割り当てと表現機能の両方の観点から、ディープクラスタリングを考察している。
広く採用されている6つのディープクラスタリングベンチマークの実験は、安定性と精度の両方においてDRCの優位性を示している。
論文 参考訳(メタデータ) (2020-08-07T08:05:53Z) - Learning to Cluster Faces via Confidence and Connectivity Estimation [136.5291151775236]
重複する部分グラフを多数必要とせず,完全に学習可能なクラスタリングフレームワークを提案する。
提案手法はクラスタリングの精度を大幅に向上させ,その上で訓練した認識モデルの性能を向上させるが,既存の教師付き手法に比べて桁違いに効率的である。
論文 参考訳(メタデータ) (2020-04-01T13:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。