論文の概要: Your Neighbors Are Communicating: Towards Powerful and Scalable Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2206.02059v1
- Date: Sat, 4 Jun 2022 21:37:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 14:00:26.515383
- Title: Your Neighbors Are Communicating: Towards Powerful and Scalable Graph
Neural Networks
- Title(参考訳): 隣人がコミュニケーションする:パワフルでスケーラブルなグラフニューラルネットワークを目指して
- Authors: Meng Liu, Haiyang Yu, Shuiwang Ji
- Abstract要約: メッセージパッシンググラフニューラルネットワーク(GNN)は1次元Weisfeiler-Lehman (1-WL)アルゴリズムによって上界表現性を持つことが知られている。
本稿では,メッセージパッシング方式のスケーラビリティを保った汎用かつ実証可能なGNNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 48.643396058420514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Message passing graph neural networks (GNNs) are known to have their
expressiveness upper-bounded by 1-dimensional Weisfeiler-Lehman (1-WL)
algorithm. To achieve more powerful GNNs, existing attempts either require ad
hoc features, or involve operations that incur high time and space
complexities. In this work, we propose a general and provably powerful GNN
framework that preserves the scalability of message passing scheme. In
particular, we first propose to empower 1-WL for graph isomorphism test by
considering edges among neighbors, giving rise to NC-1-WL. The expressiveness
of NC-1-WL is shown to be strictly above 1-WL but below 3-WL theoretically.
Further, we propose the NC-GNN framework as a differentiable neural version of
NC-1-WL. Our simple implementation of NC-GNN is provably as powerful as
NC-1-WL. Experiments demonstrate that our NC-GNN achieves remarkable
performance on various benchmarks.
- Abstract(参考訳): メッセージパッシンググラフニューラルネットワーク(GNN)は1次元Weisfeiler-Lehman (1-WL)アルゴリズムによって上界表現性を持つことが知られている。
より強力なGNNを実現するために、既存の試みはアドホックな機能を必要とするか、あるいは高時間と空間の複雑さを引き起こす操作を伴う。
本稿では,メッセージパッシング方式のスケーラビリティを保った汎用かつ実証可能なGNNフレームワークを提案する。
特に,グラフ同型テストにおける1-WLの有効性について,近傍の辺を考慮しNC-1-WLを実現することを提案する。
NC-1-WL の表現性は理論上は 1-WL より上である。
さらに,NC-1-WLのニューラルバージョンとしてNC-GNNフレームワークを提案する。
NC-GNNの実装はNC-1-WLと同じくらい強力である。
NC-GNNが様々なベンチマークで顕著な性能を発揮することを示す実験を行った。
関連論文リスト
- Union Subgraph Neural Networks [7.922920885565194]
我々は、新しいタイプのサブ構造から抽出された隣り合う接続情報を注入することで、グラフニューラルネットワーク(GNN)を強化する。
符号化された隣り合う接続性を利用することにより、UnionSNN(Union Subgraph Neural Network)と呼ばれる新しいモデルを提案する。
グラフレベルとノードレベルの両方のタスクに関する18のベンチマークの実験では、UnionSNNが最先端のベースラインモデルより優れていることが示されている。
論文 参考訳(メタデータ) (2023-05-25T05:52:43Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Two-Dimensional Weisfeiler-Lehman Graph Neural Networks for Link
Prediction [61.01337335214126]
グラフニューラルネットワーク(GNN)のリンク予測
リンク予測のためのほとんどの既存のGNNは、1次元Weisfeiler-Lehman (1-WL) テストに基づいている。
テキスト2次元Weisfeiler-Lehman (2-WL) テストに基づいて,ノード対(リンク)表現を直接取得可能な,まったく異なるアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-20T04:50:38Z) - Expressiveness and Approximation Properties of Graph Neural Networks [6.1323142294300625]
Wesfeiler-Leman (WL) テストの観点で GNN の分離パワーのバウンダリを得るためのエレガントな方法を提供する。
我々はテンソル言語を用いて、MPNNの自然な拡張である高次メッセージパッシングニューラルネットワーク(またはk-MPNN)を定義する。
提案手法は,GNNアーキテクチャ設計者がGNNの分離パワーを解析できるツールボックスを提供する。
論文 参考訳(メタデータ) (2022-04-10T11:33:04Z) - From Stars to Subgraphs: Uplifting Any GNN with Local Structure
Awareness [23.279464786779787]
私たちはMPNNをより表現力のあるものにするための一般的なフレームワークを導入します。
私たちのフレームワークは1&2-WLよりも強力で、3WLよりも強力です。
本手法は,いくつかのよく知られたグラフMLタスクに対して,新たな最先端性能を大きなマージンで設定する。
論文 参考訳(メタデータ) (2021-10-07T19:08:08Z) - Identity-aware Graph Neural Networks [63.6952975763946]
グラフニューラルネットワーク(ID-GNN)を1-WLテストよりも表現力の高いメッセージクラスを開発しています。
ID-GNNは、メッセージパッシング中にノードのIDを誘導的に考慮することにより、既存のGNNアーキテクチャを拡張します。
既存のGNNをID-GNNに変換すると、挑戦ノード、エッジ、グラフプロパティ予測タスクの平均40%の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-25T18:59:01Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。