論文の概要: From Stars to Subgraphs: Uplifting Any GNN with Local Structure
Awareness
- arxiv url: http://arxiv.org/abs/2110.03753v1
- Date: Thu, 7 Oct 2021 19:08:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 13:53:00.057290
- Title: From Stars to Subgraphs: Uplifting Any GNN with Local Structure
Awareness
- Title(参考訳): スターからサブグラフへ:GNNをローカルな構造認識で引き上げる
- Authors: Lingxiao Zhao, Wei Jin, Leman Akoglu, Neil Shah
- Abstract要約: 私たちはMPNNをより表現力のあるものにするための一般的なフレームワークを導入します。
私たちのフレームワークは1&2-WLよりも強力で、3WLよりも強力です。
本手法は,いくつかのよく知られたグラフMLタスクに対して,新たな最先端性能を大きなマージンで設定する。
- 参考スコア(独自算出の注目度): 23.279464786779787
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Message Passing Neural Networks (MPNNs) are a common type of Graph Neural
Network (GNN), in which each node's representation is computed recursively by
aggregating representations (messages) from its immediate neighbors akin to a
star-shaped pattern. MPNNs are appealing for being efficient and scalable,
how-ever their expressiveness is upper-bounded by the 1st-order
Weisfeiler-Lehman isomorphism test (1-WL). In response, prior works propose
highly expressive models at the cost of scalability and sometimes
generalization performance. Our work stands between these two regimes: we
introduce a general framework to uplift any MPNN to be more expressive, with
limited scalability overhead and greatly improved practical performance. We
achieve this by extending local aggregation in MPNNs from star patterns to
general subgraph patterns (e.g.,k-egonets):in our framework, each node
representation is computed as the encoding of a surrounding induced subgraph
rather than encoding of immediate neighbors only (i.e. a star). We choose the
subgraph encoder to be a GNN (mainly MPNNs, considering scalability) to design
a general framework that serves as a wrapper to up-lift any GNN. We call our
proposed method GNN-AK(GNN As Kernel), as the framework resembles a
convolutional neural network by replacing the kernel with GNNs. Theoretically,
we show that our framework is strictly more powerful than 1&2-WL, and is not
less powerful than 3-WL. We also design subgraph sampling strategies which
greatly reduce memory footprint and improve speed while maintaining
performance. Our method sets new state-of-the-art performance by large margins
for several well-known graph ML tasks; specifically, 0.08 MAE on ZINC,74.79%
and 86.887% accuracy on CIFAR10 and PATTERN respectively.
- Abstract(参考訳): メッセージパッシングニューラルネットワーク(英: Message Passing Neural Networks、MPNN)は、グラフニューラルネットワーク(GNN)の一種で、各ノードの表現は、星型パターンに似た近隣の表現(メッセージ)を集約することで再帰的に計算される。
MPNNは効率的で拡張性があり、その表現性は1階のWeisfeiler-Lehman同型テスト(1-WL)によって上界化されている。
これに対し、先行研究はスケーラビリティと時には一般化性能を犠牲にして非常に表現力のあるモデルを提案する。
私たちはMPNNをより表現力のあるものにするための一般的なフレームワークを導入し、スケーラビリティのオーバーヘッドを制限し、実用的なパフォーマンスを大幅に改善しました。
我々は、MPNNの局所的な集約を星パターンから一般のサブグラフパターン(例えば、k-egonets)に拡張することで実現している:我々のフレームワークでは、各ノード表現は、近隣の(すなわち星)のみを符号化するよりも、周辺で誘導されたサブグラフの符号化として計算される。
我々は,グラフエンコーダをGNN(主にMPNN)として選択し,GNNをアップリフトするためのラッパーとして機能する汎用フレームワークを設計する。
提案手法をgnn-ak(gnnをカーネルと呼ぶ)と呼び、このフレームワークはカーネルをgnnに置き換えることで畳み込みニューラルネットワークに似ている。
理論的には、我々のフレームワークは1&2-WLよりも厳格に強力であり、3WLよりも強力である。
また,メモリフットプリントを大幅に削減し,性能を維持しながら高速化するサブグラフサンプリング戦略も設計した。
具体的には,ZINCでは0.08 MAE, CIFAR10では74.79%, PATTERNでは86.887%の精度である。
関連論文リスト
- MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Union Subgraph Neural Networks [7.922920885565194]
我々は、新しいタイプのサブ構造から抽出された隣り合う接続情報を注入することで、グラフニューラルネットワーク(GNN)を強化する。
符号化された隣り合う接続性を利用することにより、UnionSNN(Union Subgraph Neural Network)と呼ばれる新しいモデルを提案する。
グラフレベルとノードレベルの両方のタスクに関する18のベンチマークの実験では、UnionSNNが最先端のベースラインモデルより優れていることが示されている。
論文 参考訳(メタデータ) (2023-05-25T05:52:43Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - UniGNN: a Unified Framework for Graph and Hypergraph Neural Networks [8.777765815864367]
エンティティ間の高次相関をモデル化するフレキシブルな表現構造であるhypergraphは、近年様々な研究領域から注目を集めている。
グラフおよびハイパーグラフニューラルネットワークにおけるメッセージパッシングプロセスを解釈するための統一フレームワークであるUniGNNを提案する。
複数の実世界のデータセットに対するUniGNNの有効性を示す実験が行われている。
論文 参考訳(メタデータ) (2021-05-03T15:48:34Z) - Identity-aware Graph Neural Networks [63.6952975763946]
グラフニューラルネットワーク(ID-GNN)を1-WLテストよりも表現力の高いメッセージクラスを開発しています。
ID-GNNは、メッセージパッシング中にノードのIDを誘導的に考慮することにより、既存のGNNアーキテクチャを拡張します。
既存のGNNをID-GNNに変換すると、挑戦ノード、エッジ、グラフプロパティ予測タスクの平均40%の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-25T18:59:01Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Expressive Power of Invariant and Equivariant Graph Neural Networks [10.419350129060598]
Folklore Graph Neural Networks (FGNN) は、与えられたテンソル次数に対してこれまで提案されてきた最も表現力のあるアーキテクチャである。
FGNNはこの問題の解決方法を学ぶことができ、既存のアルゴリズムよりも平均的なパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-06-28T16:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。