論文の概要: Adaptive Multi-layer Contrastive Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2109.14159v1
- Date: Wed, 29 Sep 2021 03:00:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 14:47:08.948551
- Title: Adaptive Multi-layer Contrastive Graph Neural Networks
- Title(参考訳): 適応型多層コントラストグラフニューラルネットワーク
- Authors: Shuhao Shi, Pengfei Xie, Xu Luo, Kai Qiao, Linyuan Wang, Jian Chen and
Bin Yan
- Abstract要約: グラフニューラルネットワークのための自己教師型学習フレームワークAMC-GNN(Adaptive Multi-layer Contrastive Graph Neural Networks)を提案する。
AMC-GNNはデータ拡張により2つのグラフビューを生成し、グラフニューラルネットワークエンコーダの出力埋め込みを比較して特徴表現を得る。
- 参考スコア(独自算出の注目度): 11.44053611893603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Adaptive Multi-layer Contrastive Graph Neural Networks (AMC-GNN),
a self-supervised learning framework for Graph Neural Network, which learns
feature representations of sample data without data labels. AMC-GNN generates
two graph views by data augmentation and compares different layers' output
embeddings of Graph Neural Network encoders to obtain feature representations,
which could be used for downstream tasks. AMC-GNN could learn the importance
weights of embeddings in different layers adaptively through the attention
mechanism, and an auxiliary encoder is introduced to train graph contrastive
encoders better. The accuracy is improved by maximizing the representation's
consistency of positive pairs in the early layers and the final embedding
space. Our experiments show that the results can be consistently improved by
using the AMC-GNN framework, across four established graph benchmarks: Cora,
Citeseer, Pubmed, DBLP citation network datasets, as well as four newly
proposed datasets: Co-author-CS, Co-author-Physics, Amazon-Computers,
Amazon-Photo.
- Abstract(参考訳): 本稿では,グラフニューラルネットワークのための自己教師付き学習フレームワークであるadaptive multi-layer contrastive graph neural networks (amc-gnn)を提案する。
AMC-GNNはデータ拡張によって2つのグラフビューを生成し、グラフニューラルネットワークエンコーダの出力埋め込みを比較して、下流タスクに使用できる特徴表現を得る。
amc-gnnはアテンション機構を通じて異なる層への埋め込みの重要性を学習することができ、グラフコントラストエンコーダのトレーニングに補助エンコーダが導入された。
初期層と最終埋め込み空間における正の対の表現の一貫性を最大化することにより精度を向上する。
AMC-GNNフレームワークを使用して、Cora、Citeseer、Pubmed、DBLP引用ネットワークデータセット、新たに提案された4つのデータセット、Co-author-CS、Co-author-Physics、Amazon-Computers、Amazon-Photoの4つのグラフベンチマークを使用して、結果が一貫して改善されることを示す。
関連論文リスト
- DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Ensemble Learning for Graph Neural Networks [28.3650473174488]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための様々な分野で成功している。
本稿では,GNNの性能とロバスト性向上のためのアンサンブル学習手法の適用について検討する。
論文 参考訳(メタデータ) (2023-10-22T03:55:13Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Isometric Graph Neural Networks [5.306334746787569]
我々はIsometric Graph Neural Networks (IGNN) の学習手法を提案する。
IGNNは、任意のGNNアルゴリズムがノード間の距離を反映した表現を生成するために、入力表現空間と損失関数を変更する必要がある。
我々はケンドールのタウ(KT)の400%まで、一貫した実質的な改善を観察する。
論文 参考訳(メタデータ) (2020-06-16T22:51:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。