論文の概要: DiP-GNN: Discriminative Pre-Training of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2209.07499v1
- Date: Thu, 15 Sep 2022 17:41:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 13:15:45.385849
- Title: DiP-GNN: Discriminative Pre-Training of Graph Neural Networks
- Title(参考訳): DiP-GNN: グラフニューラルネットワークの識別前トレーニング
- Authors: Simiao Zuo, Haoming Jiang, Qingyu Yin, Xianfeng Tang, Bing Yin, Tuo
Zhao
- Abstract要約: GNNのパワーを高めるために,グラフニューラルネットワーク(GNN)事前学習法が提案されている。
一般的な事前トレーニング手法の1つは、エッジのパーセンテージをマスクアウトすることであり、GNNはそれらを回復するように訓練されている。
筆者らのフレームワークでは, 識別器が見るグラフは, マスキングエッジの比率を回復できるため, 元のグラフとよく一致している。
- 参考スコア(独自算出の注目度): 49.19824331568713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural network (GNN) pre-training methods have been proposed to enhance
the power of GNNs. Specifically, a GNN is first pre-trained on a large-scale
unlabeled graph and then fine-tuned on a separate small labeled graph for
downstream applications, such as node classification. One popular pre-training
method is to mask out a proportion of the edges, and a GNN is trained to
recover them. However, such a generative method suffers from graph mismatch.
That is, the masked graph inputted to the GNN deviates from the original graph.
To alleviate this issue, we propose DiP-GNN (Discriminative Pre-training of
Graph Neural Networks). Specifically, we train a generator to recover
identities of the masked edges, and simultaneously, we train a discriminator to
distinguish the generated edges from the original graph's edges. In our
framework, the graph seen by the discriminator better matches the original
graph because the generator can recover a proportion of the masked edges.
Extensive experiments on large-scale homogeneous and heterogeneous graphs
demonstrate the effectiveness of the proposed framework.
- Abstract(参考訳): GNNのパワーを高めるために,グラフニューラルネットワーク(GNN)事前学習法が提案されている。
特に、GNNは、まず大規模未ラベルグラフ上で事前訓練され、その後ノード分類などの下流アプリケーションのために、別の小さなラベル付きグラフで微調整される。
一般的な事前トレーニング方法は、エッジの比率をマスクアウトし、gnnをトレーニングして回復させる方法だ。
しかし、このような生成方法はグラフミスマッチに悩まされる。
すなわち、GNNに入力されたマスグラフは、元のグラフから逸脱する。
この問題を軽減するために,我々はDIP-GNN (Discriminative Pre-training of Graph Neural Networks)を提案する。
具体的には、マスキングエッジの識別性を復元するためにジェネレータを訓練し、同時に、生成されたエッジと元のグラフエッジを区別する判別器を訓練する。
筆者らのフレームワークでは, 識別器が見るグラフは, マスキングエッジの比率を回復できるため, 元のグラフとよく一致している。
大規模等質グラフおよび異種グラフに関する広範な実験により,提案手法の有効性が示された。
関連論文リスト
- Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - SoftEdge: Regularizing Graph Classification with Random Soft Edges [18.165965620873745]
グラフデータ拡張はグラフニューラルネットワーク(GNN)の正規化において重要な役割を果たす
単純なエッジとノード操作は、同じ構造を持つグラフや、GNNをメッセージパッシングするための区別できない構造を生成することができる。
我々は,任意のグラフのエッジの一部にランダムな重みを割り当てて,そのグラフ上の動的近傍を構築するSoftEdgeを提案する。
論文 参考訳(メタデータ) (2022-04-21T20:12:36Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Imbalanced Graph Classification via Graph-of-Graph Neural Networks [16.589373163769853]
グラフニューラルネットワーク(GNN)は、グラフの分類ラベルを識別するグラフ表現の学習において、前例のない成功を収めている。
本稿では,グラフ不均衡問題を軽減する新しいフレームワークであるグラフ・オブ・グラフニューラルネットワーク(G$2$GNN)を提案する。
提案したG$2$GNNは,F1-macroとF1-microのスコアにおいて,多くのベースラインを約5%上回る性能を示した。
論文 参考訳(メタデータ) (2021-12-01T02:25:47Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Hierarchical Representation Learning in Graph Neural Networks with Node Decimation Pooling [31.812988573924674]
グラフニューラルネットワーク(GNN)では、プール演算子は入力グラフの局所的な要約を計算し、そのグローバルな特性をキャプチャする。
グラフトポロジ全体を保存しながら粗いグラフを生成するGNNのためのプール演算子であるNode Decimation Pooling (NDP)を提案する。
NDPは、最先端のグラフプーリング演算子よりも効率的であり、同時に、様々なグラフ分類タスクにおける競合性能にも達する。
論文 参考訳(メタデータ) (2019-10-24T21:42:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。