論文の概要: Network In Graph Neural Network
- arxiv url: http://arxiv.org/abs/2111.11638v1
- Date: Tue, 23 Nov 2021 03:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 15:18:59.789589
- Title: Network In Graph Neural Network
- Title(参考訳): グラフニューラルネットワークにおけるネットワーク
- Authors: Xiang Song and Runjie Ma and Jiahang Li and Muhan Zhang and David Paul
Wipf
- Abstract要約: 本稿では,任意のGNNモデルに対して,モデルをより深くすることでモデル容量を増大させるモデルに依存しない手法を提案する。
GNNレイヤの追加や拡張の代わりに、NGNNは、各GNNレイヤに非線形フィードフォワードニューラルネットワーク層を挿入することで、GNNモデルを深めている。
- 参考スコア(独自算出の注目度): 9.951298152023691
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph Neural Networks (GNNs) have shown success in learning from graph
structured data containing node/edge feature information, with application to
social networks, recommendation, fraud detection and knowledge graph reasoning.
In this regard, various strategies have been proposed in the past to improve
the expressiveness of GNNs. For example, one straightforward option is to
simply increase the parameter size by either expanding the hid-den dimension or
increasing the number of GNN layers. However, wider hidden layers can easily
lead to overfitting, and incrementally adding more GNN layers can potentially
result in over-smoothing.In this paper, we present a model-agnostic
methodology, namely Network In Graph Neural Network (NGNN ), that allows
arbitrary GNN models to increase their model capacity by making the model
deeper. However, instead of adding or widening GNN layers, NGNN deepens a GNN
model by inserting non-linear feedforward neural network layer(s) within each
GNN layer. An analysis of NGNN as applied to a GraphSage base GNN on
ogbn-products data demonstrate that it can keep the model stable against either
node feature or graph structure perturbations. Furthermore, wide-ranging
evaluation results on both node classification and link prediction tasks show
that NGNN works reliably across diverse GNN architectures.For instance, it
improves the test accuracy of GraphSage on the ogbn-products by 1.6% and
improves the hits@100 score of SEAL on ogbl-ppa by 7.08% and the hits@20 score
of GraphSage+Edge-Attr on ogbl-ppi by 6.22%. And at the time of this
submission, it achieved two first places on the OGB link prediction
leaderboard.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノード/エッジの特徴情報を含むグラフ構造化データから学習し、ソーシャルネットワーク、リコメンデーション、不正検出、知識グラフ推論に応用している。
この点に関して、gnnの表現力を向上させるための様々な戦略が過去に提案されている。
例えば、1つの簡単な選択肢は、隠れた次元を拡張するか、GNNレイヤーの数を増やすことでパラメータサイズを単純に増やすことである。
しかし,より広範に隠された層が過度に適合し,さらに多くのGNN層を追加すれば過度なスムース化がもたらされる可能性があり,本論文では,任意のGNNモデルをモデルをより深くすることで,モデルに依存しない手法であるNetwork In Graph Neural Network(NGNN)を提案する。
しかし、NGNNはGNNレイヤの追加や拡張の代わりに、各GNNレイヤ内に非線形フィードフォワードニューラルネットワーク層を挿入することで、GNNモデルをより深くする。
ogbn-productsデータ上のGraphSageベースGNNに適用したNGNNの分析により、ノードの特徴やグラフ構造の摂動に対してモデルを安定に保つことができることを示した。
さらに、ノード分類とリンク予測タスクの両方における広範囲な評価結果から、NGNNは多様なGNNアーキテクチャで確実に動作することを示す。例えば、ogbn-products上のGraphSageのテスト精度を1.6%改善し、ogbl-ppa上のSEALのhit@100スコアを7.08%改善し、ogbl-ppi上のGraphSage+Edge-Attrのhit@20スコアを6.22%改善する。
そしてこの投稿の時点で、ogb linkの予測リーダーボードで2位を獲得した。
関連論文リスト
- GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - NDGGNET-A Node Independent Gate based Graph Neural Networks [6.155450481110693]
疎結合なノードでは、単一のGNN層を通して十分な情報を得るのは難しい。
この論文では、通常のGNNモデルでより多くのレイヤに対応可能な新しいフレームワークを定義する。
実験結果から,提案モデルがモデル深度を効果的に向上し,複数のデータセットで良好に動作できることが示唆された。
論文 参考訳(メタデータ) (2022-05-11T08:51:04Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Enhance Information Propagation for Graph Neural Network by
Heterogeneous Aggregations [7.3136594018091134]
グラフニューラルネットワークは、ディープラーニングの成功の継続として出現している。
ヘテロジニアスアグリゲーションを組み合わせることで,GNN層間の情報伝達を促進することを提案する。
我々は,多くのグラフ分類ベンチマークにおいて,HAG-Netの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2021-02-08T08:57:56Z) - Identity-aware Graph Neural Networks [63.6952975763946]
グラフニューラルネットワーク(ID-GNN)を1-WLテストよりも表現力の高いメッセージクラスを開発しています。
ID-GNNは、メッセージパッシング中にノードのIDを誘導的に考慮することにより、既存のGNNアーキテクチャを拡張します。
既存のGNNをID-GNNに変換すると、挑戦ノード、エッジ、グラフプロパティ予測タスクの平均40%の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-25T18:59:01Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。