論文の概要: Self-supervised Training of Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2006.02380v1
- Date: Wed, 3 Jun 2020 16:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 18:11:48.720356
- Title: Self-supervised Training of Graph Convolutional Networks
- Title(参考訳): グラフ畳み込みネットワークの自己指導型学習
- Authors: Qikui Zhu, Bo Du, Pingkun Yan
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、非グリッドデータの解析に成功している。
本稿では,入力グラフ構造データ自体から利用可能な情報を活用するための2種類の自己教師型学習戦略を提案する。
- 参考スコア(独自算出の注目度): 39.80867112204255
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Graph Convolutional Networks (GCNs) have been successfully applied to analyze
non-grid data, where the classical convolutional neural networks (CNNs) cannot
be directly used. One similarity shared by GCNs and CNNs is the requirement of
massive amount of labeled data for network training. In addition, GCNs need the
adjacency matrix as input to define the relationship between those non-grid
data, which leads to all of data including training, validation and test data
typically forms only one graph structures data for training. Furthermore, the
adjacency matrix is usually pre-defined and stationary, which makes the data
augmentation strategies cannot be employed on the constructed graph structures
data to augment the amount of training data. To further improve the learning
capacity and model performance under the limited training data, in this paper,
we propose two types of self-supervised learning strategies to exploit
available information from the input graph structure data itself. Our proposed
self-supervised learning strategies are examined on two representative GCN
models with three public citation network datasets - Citeseer, Cora and Pubmed.
The experimental results demonstrate the generalization ability as well as the
portability of our proposed strategies, which can significantly improve the
performance of GCNs with the power of self-supervised learning in improving
feature learning.
- Abstract(参考訳): グラフ畳み込みニューラルネットワーク(GCN)は、古典的畳み込みニューラルネットワーク(CNN)を直接使用できない非グリッドデータの解析に成功している。
GCNとCNNが共有している類似点は、ネットワークトレーニングに大量のラベル付きデータを必要とすることである。
さらに、GCNは、これらの非グリッドデータ間の関係を定義するために、入力として隣接行列を必要とし、トレーニング、検証、テストデータを含むすべてのデータは通常、トレーニングのために1つのグラフ構造データのみを形成する。
さらに、隣接行列は通常予め定義され静止しており、構築したグラフ構造データにデータ拡張戦略を適用できないため、トレーニングデータの量を増やすことができる。
本稿では,限られた学習データの下での学習能力とモデル性能をさらに向上させるために,入力グラフ構造データ自体から利用可能な情報を活用するための2種類の自己教師型学習戦略を提案する。
提案手法は,Citeseer,Cora,Pubmedの3つの公開引用ネットワークデータセットを持つ2つの代表的なGCNモデルに対して検討した。
実験の結果,提案手法の可搬性とともに一般化能力が示され,機能学習における自己教師付き学習の能力により,gcnsの性能が大幅に向上した。
関連論文リスト
- Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - ABC: Aggregation before Communication, a Communication Reduction
Framework for Distributed Graph Neural Network Training and Effective
Partition [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造データに適したニューラルモデルであり、グラフ構造データの学習表現において優れた性能を示している。
本稿では,分散GNN訓練における通信複雑性について検討する。
グラフ変換プロセスの未知によりエッジ配置を制御できない動的グラフの場合,新しいパーティションパラダイムは特に理想的であることを示す。
論文 参考訳(メタデータ) (2022-12-11T04:54:01Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Self-supervised Graph Representation Learning via Bootstrapping [35.56360622521721]
深層グラフブートストラップ(DGB)の自己教師付きグラフ表現法を提案する。
DGBは、オンラインとターゲットの2つのニューラルネットワークで構成されており、その入力は初期グラフの異なる拡張ビューである。
その結果、教師なしの方法で負の例を伴わずにグラフ表現を学習できる。
論文 参考訳(メタデータ) (2020-11-10T14:47:29Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - An Uncoupled Training Architecture for Large Graph Learning [20.784230322205232]
グラフデータをグリッドライクなデータに埋め込むための、柔軟なアンカップリングトレーニングフレームワークであるNode2Gridsを紹介します。
各ノードの影響を次々にランク付けすることで、Node2Gridsは最も影響力のある1階と、中央ノードの融合情報を持つ2階の隣人を選択する。
下流タスクの効率をさらに向上するために、単純なCNNベースのニューラルネットワークを使用して、マッピングされたグリッドのようなデータから重要な情報をキャプチャする。
論文 参考訳(メタデータ) (2020-03-21T11:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。