論文の概要: Towards Graph Self-Supervised Learning with Contrastive Adjusted Zooming
- arxiv url: http://arxiv.org/abs/2111.10698v1
- Date: Sat, 20 Nov 2021 22:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 10:27:17.927627
- Title: Towards Graph Self-Supervised Learning with Contrastive Adjusted Zooming
- Title(参考訳): Contrastive Adjusted Zooming を用いたグラフ自己監督学習に向けて
- Authors: Yizhen Zheng, Ming Jin, Shirui Pan, Yuan-Fang Li, Hao Peng, Ming Li,
Zhao Li
- Abstract要約: 本稿では,グラフコントラスト適応ズームによる自己教師付きグラフ表現学習アルゴリズムを提案する。
このメカニズムにより、G-Zoomはグラフから複数のスケールから自己超越信号を探索して抽出することができる。
我々は,実世界のデータセットに関する広範な実験を行い,提案したモデルが常に最先端の手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 48.99614465020678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph representation learning (GRL) is critical for graph-structured data
analysis. However, most of the existing graph neural networks (GNNs) heavily
rely on labeling information, which is normally expensive to obtain in the real
world. Existing unsupervised GRL methods suffer from certain limitations, such
as the heavy reliance on monotone contrastiveness and limited scalability. To
overcome the aforementioned problems, in light of the recent advancements in
graph contrastive learning, we introduce a novel self-supervised graph
representation learning algorithm via Graph Contrastive Adjusted Zooming,
namely G-Zoom, to learn node representations by leveraging the proposed
adjusted zooming scheme. Specifically, this mechanism enables G-Zoom to explore
and extract self-supervision signals from a graph from multiple scales: micro
(i.e., node-level), meso (i.e., neighbourhood-level), and macro (i.e.,
subgraph-level). Firstly, we generate two augmented views of the input graph
via two different graph augmentations. Then, we establish three different
contrastiveness on the above three scales progressively, from node,
neighbouring, to subgraph level, where we maximize the agreement between graph
representations across scales. While we can extract valuable clues from a given
graph on the micro and macro perspectives, the neighbourhood-level
contrastiveness offers G-Zoom the capability of a customizable option based on
our adjusted zooming scheme to manually choose an optimal viewpoint that lies
between the micro and macro perspectives to better understand the graph data.
Additionally, to make our model scalable to large graphs, we employ a parallel
graph diffusion approach to decouple model training from the graph size. We
have conducted extensive experiments on real-world datasets, and the results
demonstrate that our proposed model outperforms state-of-the-art methods
consistently.
- Abstract(参考訳): グラフ構造データ解析にはグラフ表現学習(grl)が不可欠である。
しかし、既存のグラフニューラルネットワーク(GNN)のほとんどはラベル付け情報に大きく依存しており、これは現実世界で入手するのに通常高価である。
既存の教師なしGRL法は、モノトーンのコントラスト性やスケーラビリティの制限など、一定の制限に悩まされている。
本稿では、グラフコントラスト学習の最近の進歩を踏まえて、グラフコントラスト調整ズームによる自己教師ありグラフ表現学習アルゴリズム、すなわちg-zoomを導入し、提案する調整ズーム方式を利用してノード表現を学習する。
具体的には、G-Zoomは、マイクロ(ノードレベル)、メソ(近隣レベル)、マクロ(サブグラフレベル)の複数のスケールから、グラフから自己超越信号を探索し抽出することができる。
まず、2つの異なるグラフ拡張により、入力グラフの2つの拡張ビューを生成する。
そして、上記の3つの尺度に対して、ノード、近傍、サブグラフレベルから段階的に3つの異なるコントラスト性を確立し、スケール間のグラフ表現の一致を最大化する。
マイクロとマクロの観点で与えられたグラフから貴重な手がかりを抽出できるが、近傍のコントラスト性はG-Zoomに、調整されたズーム方式に基づくカスタマイズ可能なオプションの能力を提供し、マイクロとマクロの視点の間にある最適な視点を手動で選択し、グラフデータをよりよく理解する。
さらに,我々のモデルを大規模グラフにスケーラブルにするために,グラフサイズからモデルのトレーニングを分離するために,並列グラフ拡散アプローチを用いる。
我々は,実世界のデータセットに関する広範な実験を行い,提案モデルが常に最先端の手法より優れていることを示す。
関連論文リスト
- InstructG2I: Synthesizing Images from Multimodal Attributed Graphs [50.852150521561676]
InstructG2Iと呼ばれるグラフ文脈条件拡散モデルを提案する。
InstructG2Iはまずグラフ構造とマルチモーダル情報を利用して情報的隣人サンプリングを行う。
Graph-QFormerエンコーダは、グラフノードをグラフプロンプトの補助セットに適応的に符号化し、デノナイジングプロセスを導く。
論文 参考訳(メタデータ) (2024-10-09T17:56:15Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Self-supervised Consensus Representation Learning for Attributed Graph [15.729417511103602]
グラフ表現学習に自己教師付き学習機構を導入する。
本稿では,新しい自己教師型コンセンサス表現学習フレームワークを提案する。
提案手法はトポロジグラフと特徴グラフの2つの視点からグラフを扱う。
論文 参考訳(メタデータ) (2021-08-10T07:53:09Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Graph Contrastive Learning with Adaptive Augmentation [23.37786673825192]
本稿では,適応的拡張を用いた新しいグラフコントラスト表現学習法を提案する。
具体的には,ノードの集中度に基づく拡張スキームを設計し,重要な結合構造を明らかにする。
提案手法は,既存の最先端のベースラインを一貫して上回り,教師付きベースラインを超えている。
論文 参考訳(メタデータ) (2020-10-27T15:12:21Z) - Multilevel Graph Matching Networks for Deep Graph Similarity Learning [79.3213351477689]
グラフ構造オブジェクト間のグラフ類似性を計算するためのマルチレベルグラフマッチングネットワーク(MGMN)フレームワークを提案する。
標準ベンチマークデータセットの欠如を補うため、グラフグラフ分類とグラフグラフ回帰タスクの両方のためのデータセットセットを作成し、収集した。
総合的な実験により、MGMNはグラフグラフ分類とグラフグラフ回帰タスクの両方において、最先端のベースラインモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-07-08T19:48:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。