論文の概要: Graph Representation Learning via Contrasting Cluster Assignments
- arxiv url: http://arxiv.org/abs/2112.07934v1
- Date: Wed, 15 Dec 2021 07:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 16:20:37.042406
- Title: Graph Representation Learning via Contrasting Cluster Assignments
- Title(参考訳): クラスタ割り当てを用いたグラフ表現学習
- Authors: Chunyang Zhang, Hongyu Yao, C. L. Philip Chen and Yuena Lin
- Abstract要約: GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
- 参考スコア(独自算出の注目度): 57.87743170674533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise of contrastive learning, unsupervised graph representation
learning has been booming recently, even surpassing the supervised counterparts
in some machine learning tasks. Most of existing contrastive models for graph
representation learning either focus on maximizing mutual information between
local and global embeddings, or primarily depend on contrasting embeddings at
node level. However, they are still not exquisite enough to comprehensively
explore the local and global views of network topology. Although the former
considers local-global relationship, its coarse global information leads to
grudging cooperation between local and global views. The latter pays attention
to node-level feature alignment, so that the role of global view appears
inconspicuous. To avoid falling into these two extreme cases, we propose a
novel unsupervised graph representation model by contrasting cluster
assignments, called as GRCCA. It is motivated to make good use of local and
global information synthetically through combining clustering algorithms and
contrastive learning. This not only facilitates the contrastive effect, but
also provides the more high-quality graph information. Meanwhile, GRCCA further
excavates cluster-level information, which make it get insight to the elusive
association between nodes beyond graph topology. Specifically, we first
generate two augmented graphs with distinct graph augmentation strategies, then
employ clustering algorithms to obtain their cluster assignments and prototypes
respectively. The proposed GRCCA further compels the identical nodes from
different augmented graphs to recognize their cluster assignments mutually by
minimizing a cross entropy loss. To demonstrate its effectiveness, we compare
with the state-of-the-art models in three different downstream tasks. The
experimental results show that GRCCA has strong competitiveness in most tasks.
- Abstract(参考訳): コントラスト学習の台頭に伴い、教師なしグラフ表現学習は近年ブームとなり、一部の機械学習タスクでは教師なしグラフ学習を上回っている。
グラフ表現学習の既存のコントラストモデルのほとんどは、ローカルとグローバルの埋め込み間の相互情報を最大化することに注力するか、あるいは主にノードレベルでのコントラストに依存する。
しかし、ネットワークトポロジーのローカルおよびグローバルなビューを包括的に探究するには、まだ不十分である。
前者は地域とグローバルの関係を考察するが、その粗いグローバル情報は、地域とグローバルな見解の協調に繋がる。
後者はノードレベルの特徴アライメントに注意を払うため、グローバルビューの役割は目立たないように見える。
この2つの極端なケースに陥ることを避けるため、GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることにより,局所的およびグローバルな情報を合成的に有効に活用する。
これは対照的な効果を促進するだけでなく、より高品質なグラフ情報も提供する。
一方、GRCCAはさらにクラスタレベルの情報を発掘し、グラフトポロジを超えたノード間の因果関係の洞察を得る。
具体的には、まず異なるグラフ拡張戦略を持つ2つの拡張グラフを生成し、それぞれクラスタ割り当てとプロトタイプを取得するためにクラスタリングアルゴリズムを使用する。
提案したGRCCAは、異なる拡張グラフから同一ノードを補完し、クロスエントロピー損失を最小限に抑えてクラスタ割り当てを相互に認識する。
その効果を示すために,3つの下流タスクにおける最先端モデルとの比較を行った。
実験の結果, GRCCAはほとんどのタスクにおいて強い競争力を持つことがわかった。
関連論文リスト
- Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Redundancy-Free Self-Supervised Relational Learning for Graph Clustering [13.176413653235311]
冗長フリーグラフクラスタリング(R$2$FGC)という,自己教師付き深層グラフクラスタリング手法を提案する。
オートエンコーダとグラフオートエンコーダに基づいて,グローバルビューとローカルビューの両方から属性レベルと構造レベルの関係情報を抽出する。
この実験は,R$2$FGCが最先端のベースラインよりも優れていることを示すために,広く使用されているベンチマークデータセット上で実施されている。
論文 参考訳(メタデータ) (2023-09-09T06:18:50Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Local Structure-aware Graph Contrastive Representation Learning [12.554113138406688]
複数のビューからノードの構造情報をモデル化するための局所構造対応グラフ比較表現学習法(LS-GCL)を提案する。
ローカルビューでは、各ターゲットノードのセマンティックサブグラフが共有GNNエンコーダに入力され、サブグラフレベルに埋め込まれたターゲットノードを取得する。
グローバルな視点では、元のグラフはノードの必要不可欠な意味情報を保存しているので、共有GNNエンコーダを利用して、グローバルなグラフレベルでターゲットノードの埋め込みを学習する。
論文 参考訳(メタデータ) (2023-08-07T03:23:46Z) - Deep Temporal Graph Clustering [77.02070768950145]
深部時間グラフクラスタリング(GC)のための汎用フレームワークを提案する。
GCは、時間グラフの相互作用シーケンスに基づくバッチ処理パターンに適合するディープクラスタリング技術を導入している。
我々のフレームワークは、既存の時間グラフ学習手法の性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-05-18T06:17:50Z) - GLCC: A General Framework for Graph-level Clustering [5.069852282550117]
本稿では,グラフレベルのクラスタリングの問題について検討する。
GLCC(Graph-Level Contrastive Clustering)というグラフレベルの一般的なクラスタリングフレームワークを提案する。
様々なよく知られたデータセットに対する実験は、競合するベースラインよりも提案したGLCCの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T11:08:10Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - Graph InfoClust: Leveraging cluster-level node information for
unsupervised graph representation learning [12.592903558338444]
本稿では,グラフ InfoClust というグラフ表現学習手法を提案する。
同社はさらに、クラスタレベルの情報コンテンツをキャプチャしようとしている。
この最適化により、ノード表現はよりリッチな情報とノイズ相互作用をキャプチャし、それによって品質が向上する。
論文 参考訳(メタデータ) (2020-09-15T09:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。