論文の概要: GNNs,You can be Stronger,Deeper and Faster
- arxiv url: http://arxiv.org/abs/2305.05368v1
- Date: Tue, 9 May 2023 12:03:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 12:57:57.757966
- Title: GNNs,You can be Stronger,Deeper and Faster
- Title(参考訳): gnn、あなたはより強く、より深く、より速く
- Authors: Jingbo Zhou, Yixuan Du, Ruqiong Zhang, Rui Zhang, Di Jin, Carl Yang
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習し、隣人を集約することでノードの表現を学ぶ。
グラフニューラルネットワーク(GNN)の性能は,層数の増加に伴って徐々に低下していくことが知られている。
そこで我々は,k-hopサブグラフアグリゲーションに基づいて,GNNの表現力を理解するための新たな視点を提案する。
- 参考スコア(独自算出の注目度): 50.034313206471694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs), a type of neural network that can learn from
graph-structured data and learn the representation of nodes by aggregating
their neighbors, have shown excellent performance in downstream tasks.However,
it is known that the performance of graph neural networks (GNNs) degrades
gradually as the number of layers increases. Based on k-hop subgraph
aggregation, which is a new concept, we propose a new perspective to understand
the expressive power of GNN.From this perspective, we reveal the potential
causes of the performance degradation of the deep traditional GNN - aggregated
subgraph overlap, and the fact that the residual-based graph neural networks in
fact exploit the aggregation results of 1 to k hop subgraphs to improve the
effectiveness.Further, we propose a new sampling-based node-level residual
module named SDF, which is shown by theoretical derivation to obtain a superior
expressive power compared to previous residual methods by using information
from 1 to k hop subgraphs more flexibly. Extensive experiments show that the
performance and efficiency of GNN with the SDF module outperform other methods.
- Abstract(参考訳): グラフ構造データから学習し,隣接ノードを集約することでノード表現を学習可能なグラフニューラルネットワーク(gnns)は,ダウンストリームタスクにおいて優れた性能を示すが,グラフニューラルネットワーク(gnns)の性能は層数の増加とともに徐々に低下することが知られている。
Based on k-hop subgraph aggregation, which is a new concept, we propose a new perspective to understand the expressive power of GNN.From this perspective, we reveal the potential causes of the performance degradation of the deep traditional GNN - aggregated subgraph overlap, and the fact that the residual-based graph neural networks in fact exploit the aggregation results of 1 to k hop subgraphs to improve the effectiveness.Further, we propose a new sampling-based node-level residual module named SDF, which is shown by theoretical derivation to obtain a superior expressive power compared to previous residual methods by using information from 1 to k hop subgraphs more flexibly.
SDFモジュールによるGNNの性能と効率は,他の手法よりも優れていた。
関連論文リスト
- Iterative Graph Neural Network Enhancement via Frequent Subgraph Mining
of Explanations [0.0]
我々は、説明強化グラフ学習(EEGL)と呼ばれるノード分類のためのグラフニューラルネットワーク(GNN)のためのXAIベースのモデル改善アプローチを定式化する。
目的は、説明を用いてGNNの予測性能を改善することである。
EEGLは、学習された"バニラ"GNNから始まる反復的な自己改善アルゴリズムであり、頻繁にサブグラフマイニングを使用して説明サブグラフの関連パターンを見つける。
論文 参考訳(メタデータ) (2024-03-12T17:41:27Z) - Ordered Subgraph Aggregation Networks [19.18478955240166]
グラフ強化グラフニューラルネットワーク(GNN)が登場し、標準(メッセージパス)GNNの表現力を確実に向上させている。
本稿では, 理論的枠組みを導入し, サブグラフ強化GNNの表現性を拡張した。
部分グラフサイズの増加は常に表現力を高め、それらの制限をよりよく理解することを示します。
論文 参考訳(メタデータ) (2022-06-22T15:19:34Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Non-Recursive Graph Convolutional Networks [33.459371861932574]
非再帰グラフ畳み込みネットワーク(NRGCN)と呼ばれる新しいアーキテクチャを提案し、GCNのトレーニング効率と学習パフォーマンスの両方を改善します。
NRGCNは、内部層凝集と層非依存サンプリングに基づいて、各ノードの隣人のホップを表す。
このようにして、各ノードは、隣人の各ホップから独立して抽出された情報を連結することで直接表現することができる。
論文 参考訳(メタデータ) (2021-05-09T08:12:18Z) - Enhance Information Propagation for Graph Neural Network by
Heterogeneous Aggregations [7.3136594018091134]
グラフニューラルネットワークは、ディープラーニングの成功の継続として出現している。
ヘテロジニアスアグリゲーションを組み合わせることで,GNN層間の情報伝達を促進することを提案する。
我々は,多くのグラフ分類ベンチマークにおいて,HAG-Netの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2021-02-08T08:57:56Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Subgraph Neural Networks [14.222887950206662]
本稿では,不整合部分グラフ表現を学習するためのサブグラフニューラルネットワークSubGNNを紹介する。
SubGNNは、挑戦的なバイオメディカルデータセットで非常によく機能する。
論文 参考訳(メタデータ) (2020-06-18T13:54:30Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。