論文の概要: Self-supervised Contrastive Attributed Graph Clustering
- arxiv url: http://arxiv.org/abs/2110.08264v1
- Date: Fri, 15 Oct 2021 03:25:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 13:58:46.551633
- Title: Self-supervised Contrastive Attributed Graph Clustering
- Title(参考訳): 自己教師付きコントラスト有意グラフクラスタリング
- Authors: Wei Xia, Quanxue Gao, Ming Yang, Xinbo Gao
- Abstract要約: 我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
- 参考スコア(独自算出の注目度): 110.52694943592974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attributed graph clustering, which learns node representation from node
attribute and topological graph for clustering, is a fundamental but
challenging task for graph analysis. Recently, methods based on graph
contrastive learning (GCL) have obtained impressive clustering performance on
this task. Yet, we observe that existing GCL-based methods 1) fail to benefit
from imprecise clustering labels; 2) require a post-processing operation to get
clustering labels; 3) cannot solve out-of-sample (OOS) problem. To address
these issues, we propose a novel attributed graph clustering network, namely
Self-supervised Contrastive Attributed Graph Clustering (SCAGC). In SCAGC, by
leveraging inaccurate clustering labels, a self-supervised contrastive loss,
which aims to maximize the similarities of intra-cluster nodes while minimizing
the similarities of inter-cluster nodes, are designed for node representation
learning. Meanwhile, a clustering module is built to directly output clustering
labels by contrasting the representation of different clusters. Thus, for the
OOS nodes, SCAGC can directly calculate their clustering labels. Extensive
experimental results on four benchmark datasets have shown that SCAGC
consistently outperforms 11 competitive clustering methods.
- Abstract(参考訳): ノード属性からノード表現を学習する分散グラフクラスタリングと,クラスタリングのためのトポロジグラフは,グラフ解析の基本的だが難しい課題である。
近年,グラフコントラッシブ・ラーニング(GCL)に基づく手法により,この課題に対して優れたクラスタリング性能が得られた。
しかし、既存のgclベースの手法は
1)不正確なクラスタリングラベルの恩恵を受けない
2) クラスタリングラベルを取得するには,後処理操作が必要である。
3) サンプル外問題(OOS)は解決できない。
これらの問題に対処するため,我々は,自己管理型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,クラスタ間ノードの類似性を最小化しつつ,クラスタ間ノードの類似性を最大化することを目的とした,自己監督型コントラスト損失がノード表現学習のために設計されている。
一方、クラスタリングモジュールは、異なるクラスタの表現を対比してクラスタリングラベルを直接出力するように構築されている。
したがって、OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
4つのベンチマークデータセットの大規模な実験結果によると、SCAGCは11の競合クラスタリングメソッドより一貫して優れています。
関連論文リスト
- Cluster-based Graph Collaborative Filtering [55.929052969825825]
グラフ畳み込みネットワーク(GCN)は、レコメンデーションシステムのためのユーザおよびアイテム表現の学習に成功している。
既存のGCNベースのほとんどのメソッドは、高階グラフ畳み込みを実行しながら、ユーザの複数の関心事を見落としている。
クラスタベースグラフ協調フィルタリング(ClusterGCF)と呼ばれる新しいGCNベースのレコメンデーションモデルを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:05:16Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Learning Uniform Clusters on Hypersphere for Deep Graph-level Clustering [25.350054742471816]
我々はUDGC(Uniform Deep Graph Clustering)と呼ばれる新しいディープグラフレベルのクラスタリング手法を提案する。
UDGCはインスタンスを異なるクラスタに均等に割り当て、次にこれらのクラスタをユニットハイパースフィア上に分散させ、より均一なクラスタレベルの分散と、より小さなクラスタ崩壊につながる。
8つのよく知られたデータセットに関する実証研究は、UDGCが最先端のモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2023-11-23T12:08:20Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - DeepCut: Unsupervised Segmentation using Graph Neural Networks
Clustering [6.447863458841379]
本研究では,従来のクラスタリング手法を置き換える軽量グラフニューラルネットワーク(GNN)を提案する。
既存の手法とは異なり、GNNはローカル画像特徴と生特徴とのペアワイズ親和性の両方を入力として取ります。
画像セグメンテーションGNNを訓練するための自己教師付き損失関数として,古典的クラスタリングの目的を定式化する方法を実証する。
論文 参考訳(メタデータ) (2022-12-12T12:31:46Z) - GLCC: A General Framework for Graph-level Clustering [5.069852282550117]
本稿では,グラフレベルのクラスタリングの問題について検討する。
GLCC(Graph-Level Contrastive Clustering)というグラフレベルの一般的なクラスタリングフレームワークを提案する。
様々なよく知られたデータセットに対する実験は、競合するベースラインよりも提案したGLCCの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T11:08:10Z) - Dual Contrastive Attributed Graph Clustering Network [6.796682703663566]
我々はDCAGC(Dual Contrastive Attributed Graph Clustering Network)と呼ばれる汎用フレームワークを提案する。
DCAGCでは、近隣のコントラストモジュールを利用することで、近隣ノードの類似性を最大化し、ノード表現の品質を向上させる。
DCAGCのすべてのモジュールは、統一されたフレームワークでトレーニングされ、最適化されているため、学習されたノード表現にはクラスタリング指向のメッセージが含まれている。
論文 参考訳(メタデータ) (2022-06-16T03:17:01Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - Attention-driven Graph Clustering Network [49.040136530379094]
我々は、注意駆動グラフクラスタリングネットワーク(AGCN)という新しいディープクラスタリング手法を提案する。
AGCNは、ノード属性特徴とトポロジグラフ特徴を動的に融合するために、不均一な融合モジュールを利用する。
AGCNは、教師なしの方法で特徴学習とクラスタ割り当てを共同で行うことができる。
論文 参考訳(メタデータ) (2021-08-12T02:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。