論文の概要: Neural Graph Matching for Pre-training Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2203.01597v1
- Date: Thu, 3 Mar 2022 09:53:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-05 05:06:18.040765
- Title: Neural Graph Matching for Pre-training Graph Neural Networks
- Title(参考訳): 事前学習型グラフニューラルネットワークのためのニューラルグラフマッチング
- Authors: Yupeng Hou, Binbin Hu, Wayne Xin Zhao, Zhiqiang Zhang, Jun Zhou,
Ji-Rong Wen
- Abstract要約: グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
- 参考スコア(独自算出の注目度): 72.32801428070749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, graph neural networks (GNNs) have been shown powerful capacity at
modeling structural data. However, when adapted to downstream tasks, it usually
requires abundant task-specific labeled data, which can be extremely scarce in
practice. A promising solution to data scarcity is to pre-train a transferable
and expressive GNN model on large amounts of unlabeled graphs or coarse-grained
labeled graphs. Then the pre-trained GNN is fine-tuned on downstream datasets
with task-specific fine-grained labels. In this paper, we present a novel Graph
Matching based GNN Pre-Training framework, called GMPT. Focusing on a pair of
graphs, we propose to learn structural correspondences between them via neural
graph matching, consisting of both intra-graph message passing and inter-graph
message passing. In this way, we can learn adaptive representations for a given
graph when paired with different graphs, and both node- and graph-level
characteristics are naturally considered in a single pre-training task. The
proposed method can be applied to fully self-supervised pre-training and
coarse-grained supervised pre-training. We further propose an approximate
contrastive training strategy to significantly reduce time/memory consumption.
Extensive experiments on multi-domain, out-of-distribution benchmarks have
demonstrated the effectiveness of our approach. The code is available at:
https://github.com/RUCAIBox/GMPT.
- Abstract(参考訳): 近年,グラフニューラルネットワーク (gnns) は構造データのモデリング能力が向上している。
しかし、下流タスクに適応する場合、通常は豊富なタスク固有のラベル付きデータを必要とする。
データ不足に対する有望な解決策は、大量のラベルのないグラフや粗いラベル付きグラフ上で、転送可能で表現可能なGNNモデルを事前訓練することである。
次に、事前訓練されたGNNは、タスク固有のきめ細かいラベルを持つ下流データセットに微調整される。
本稿では、GMPTと呼ばれるグラフマッチングに基づくGNN事前学習フレームワークを提案する。
1対のグラフに着目し,グラフ内メッセージパッシングとグラフ間メッセージパッシングの両方からなる,ニューラルネットワークによる構造的対応を学習する。
このように、異なるグラフとペアリングすると、与えられたグラフの適応表現を学習でき、ノードレベルとグラフレベルの特性は、自然に一つの事前学習タスクで考慮される。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
さらに,時間/メモリ消費を大幅に削減するための近似的なコントラストトレーニング戦略を提案する。
マルチドメイン・アウト・オブ・ディストリビューション・ベンチマークに関する広範な実験により,本手法の有効性が実証された。
コードは、https://github.com/RUCAIBox/GMPTで入手できる。
関連論文リスト
- You do not have to train Graph Neural Networks at all on text-attributed graphs [25.044734252779975]
我々は、同じクラスからのテキストエンコーディングがしばしば線形部分空間に集約されるという観察に乗じて、線形GNNモデルであるTrainlessGNNを紹介した。
実験の結果、私たちのトレインレスモデルは、従来の訓練済みのモデルにマッチするか、超えられることがわかった。
論文 参考訳(メタデータ) (2024-04-17T02:52:11Z) - Self-Pro: A Self-Prompt and Tuning Framework for Graph Neural Networks [10.794305560114903]
Self-Promptは、モデルとデータ自体に基づいたグラフのプロンプトフレームワークである。
非対称なグラフコントラスト学習を導入し、不均質に対処し、プリテキストと下流タスクの目的を整合させる。
11のベンチマークデータセットに対する広範な実験を行い、その優位性を実証する。
論文 参考訳(メタデータ) (2023-10-16T12:58:04Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。