論文の概要: Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning
- arxiv url: http://arxiv.org/abs/2009.10273v3
- Date: Sun, 22 Nov 2020 06:32:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 21:40:46.957284
- Title: Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning
- Title(参考訳): スケーラブルな自己教師付きグラフ表現学習のためのサブグラフコントラスト
- Authors: Yizhu Jiao, Yun Xiong, Jiawei Zhang, Yao Zhang, Tianqi Zhang, Yangyong
Zhu
- Abstract要約: 既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
- 参考スコア(独自算出の注目度): 21.0019144298605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph representation learning has attracted lots of attention recently.
Existing graph neural networks fed with the complete graph data are not
scalable due to limited computation and memory costs. Thus, it remains a great
challenge to capture rich information in large-scale graph data. Besides, these
methods mainly focus on supervised learning and highly depend on node label
information, which is expensive to obtain in the real world. As to unsupervised
network embedding approaches, they overemphasize node proximity instead, whose
learned representations can hardly be used in downstream application tasks
directly. In recent years, emerging self-supervised learning provides a
potential solution to address the aforementioned problems. However, existing
self-supervised works also operate on the complete graph data and are biased to
fit either global or very local (1-hop neighborhood) graph structures in
defining the mutual information based loss terms.
In this paper, a novel self-supervised representation learning method via
Subgraph Contrast, namely \textsc{Subg-Con}, is proposed by utilizing the
strong correlation between central nodes and their sampled subgraphs to capture
regional structure information. Instead of learning on the complete input graph
data, with a novel data augmentation strategy, \textsc{Subg-Con} learns node
representations through a contrastive loss defined based on subgraphs sampled
from the original graph instead. Compared with existing graph representation
learning approaches, \textsc{Subg-Con} has prominent performance advantages in
weaker supervision requirements, model learning scalability, and
parallelization. Extensive experiments verify both the effectiveness and the
efficiency of our work compared with both classic and state-of-the-art graph
representation learning approaches on multiple real-world large-scale benchmark
datasets from different domains.
- Abstract(参考訳): 近年,グラフ表現学習が注目されている。
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
したがって、大規模なグラフデータにリッチな情報をキャプチャすることは、依然として大きな課題です。
さらに,これらの手法は主に教師あり学習に重点を置いており,実世界では入手が難しいノードラベル情報に強く依存している。
教師なしのネットワーク埋め込みアプローチでは、ノード近接度を過大評価し、学習された表現は下流のアプリケーションタスクで直接使用できない。
近年、自己指導型学習は、前述の問題に対処するための潜在的な解決策を提供する。
しかし、既存の自己監督型ワークは完全なグラフデータでも動作し、相互情報に基づく損失項を定義する際に、グローバルまたは非常に局所的な(1ホップ近傍)グラフ構造に適合するようにバイアスを受ける。
本稿では,中央ノードとそのサンプルサブグラフ間の強い相関を利用して,部分グラフコントラストを用いた新しい自己教師付き表現学習法,すなわち \textsc{subg-con} を提案する。
入力グラフデータを完全に学習する代わりに、新しいデータ拡張戦略を用いて、オリジナルのグラフからサンプリングされたグラフに基づいて定義された対照的な損失によってノード表現を学習する。
既存のグラフ表現学習アプローチと比較すると、 \textsc{Subg-Con} は、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上の優位性を持っている。
従来のグラフ表現学習と最先端のグラフ表現学習の両アプローチを、異なる領域の複数の実世界の大規模ベンチマークデータセットで比較し、我々の作業の有効性と効率性を検証する。
関連論文リスト
- Redundancy-Free Self-Supervised Relational Learning for Graph Clustering [13.176413653235311]
冗長フリーグラフクラスタリング(R$2$FGC)という,自己教師付き深層グラフクラスタリング手法を提案する。
オートエンコーダとグラフオートエンコーダに基づいて,グローバルビューとローカルビューの両方から属性レベルと構造レベルの関係情報を抽出する。
この実験は,R$2$FGCが最先端のベースラインよりも優れていることを示すために,広く使用されているベンチマークデータセット上で実施されている。
論文 参考訳(メタデータ) (2023-09-09T06:18:50Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - ARIEL: Adversarial Graph Contrastive Learning [51.14695794459399]
ARIELは、ノードレベルとグラフレベルの両方の分類タスクにおいて、現在のグラフコントラスト学習法よりも一貫して優れている。
ARIELは敵の攻撃に対してより堅牢である。
論文 参考訳(メタデータ) (2022-08-15T01:24:42Z) - Edge but not Least: Cross-View Graph Pooling [76.71497833616024]
本稿では,重要なグラフ構造情報を活用するために,クロスビューグラフプーリング(Co-Pooling)手法を提案する。
クロスビュー相互作用、エッジビュープーリング、ノードビュープーリングにより、相互にシームレスに強化され、より情報的なグラフレベルの表現が学習される。
論文 参考訳(メタデータ) (2021-09-24T08:01:23Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Graph Representation Learning by Ensemble Aggregating Subgraphs via
Mutual Information Maximization [5.419711903307341]
グラフニューラルネットワークが学習するグラフレベルの表現を高めるための自己監視型学習法を提案する。
グラフ構造を網羅的に理解するために,サブグラフ法のようなアンサンブル学習を提案する。
また, 効率的かつ効果的な対位学習を実現するために, ヘッドテールコントラストサンプル構築法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:12Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。