論文の概要: Path Neural Networks: Expressive and Accurate Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2306.05955v1
- Date: Fri, 9 Jun 2023 15:11:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 12:49:41.537202
- Title: Path Neural Networks: Expressive and Accurate Graph Neural Networks
- Title(参考訳): Path Neural Networks: 表現的かつ正確なグラフニューラルネットワーク
- Authors: Gaspard Michel, Giannis Nikolentzos, Johannes Lutzeyer, Michalis
Vazirgiannis
- Abstract要約: グラフニューラルネットワーク(GNN)は最近、グラフ構造化データによる学習の標準的なアプローチになっている。
本稿では,ノードからの経路を集約することでノード表現を更新するPathNNを提案する。
これらの2つの変種は1-WLアルゴリズムよりも厳密に強力であることが証明され、理論的結果が実験的に検証された。
- 参考スコア(独自算出の注目度): 23.824156607376697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have recently become the standard approach for
learning with graph-structured data. Prior work has shed light into their
potential, but also their limitations. Unfortunately, it was shown that
standard GNNs are limited in their expressive power. These models are no more
powerful than the 1-dimensional Weisfeiler-Leman (1-WL) algorithm in terms of
distinguishing non-isomorphic graphs. In this paper, we propose Path Neural
Networks (PathNNs), a model that updates node representations by aggregating
paths emanating from nodes. We derive three different variants of the PathNN
model that aggregate single shortest paths, all shortest paths and all simple
paths of length up to K. We prove that two of these variants are strictly more
powerful than the 1-WL algorithm, and we experimentally validate our
theoretical results. We find that PathNNs can distinguish pairs of
non-isomorphic graphs that are indistinguishable by 1-WL, while our most
expressive PathNN variant can even distinguish between 3-WL indistinguishable
graphs. The different PathNN variants are also evaluated on graph
classification and graph regression datasets, where in most cases, they
outperform the baseline methods.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は最近、グラフ構造化データによる学習の標準的なアプローチになっている。
以前の作業は、その可能性だけでなく、限界にも光を当てています。
残念ながら、標準のGNNは表現力に制限があることがわかった。
これらのモデルは、非同型グラフの区別の観点から、1次元のWeisfeiler-Leman (1-WL)アルゴリズムほど強力ではない。
本稿では,ノードから発生する経路を集約してノード表現を更新するモデルであるpath neural network (pathnns)を提案する。
一つの最短経路,全最短経路,全単純経路をKまで集約するPathNNモデルの3つの変種を導出し,これらの変種のうち2つが1-WLアルゴリズムよりも厳密に強力であることを証明し,理論的結果を実験的に検証した。
PathNNは1-WLで区別できない非同型グラフのペアを区別できるのに対し、最も表現力のあるPathNNは3-WLで識別できないグラフを区別できる。
異なるpathnn変種はグラフ分類やグラフ回帰データセットでも評価され、ほとんどのケースではベースラインメソッドよりも優れています。
関連論文リスト
- The Heterophilic Snowflake Hypothesis: Training and Empowering GNNs for Heterophilic Graphs [59.03660013787925]
ヘテロフィリー・スノーフレーク仮説を導入し、ヘテロ親和性グラフの研究をガイドし、促進するための効果的なソリューションを提供する。
観察の結果,我々のフレームワークは多種多様なタスクのための多目的演算子として機能することがわかった。
さまざまなGNNフレームワークに統合することができ、パフォーマンスを詳細に向上し、最適なネットワーク深さを選択するための説明可能なアプローチを提供する。
論文 参考訳(メタデータ) (2024-06-18T12:16:00Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - A Topological characterisation of Weisfeiler-Leman equivalence classes [0.0]
グラフニューラルネットワーク(GNN)は、グラフと信号をグラフ上で処理することを目的とした学習モデルである。
本稿では、GNNが区別できないグラフのクラスを完全に特徴づけるために、被覆空間の理論に依存する。
データセット内の識別不能グラフの数は,ノード数とともに指数関数的に増加することを示す。
論文 参考訳(メタデータ) (2022-06-23T17:28:55Z) - The Exact Class of Graph Functions Generated by Graph Neural Networks [43.25172578943894]
グラフ関数と出力が同一のグラフニューラルネットワーク(GNN)?
本稿では,この疑問に完全に答え,GNNで表現可能なグラフ問題のクラスを特徴付ける。
この条件は2次的に多くの制約をチェックすることで効率よく検証できることを示す。
論文 参考訳(メタデータ) (2022-02-17T18:54:27Z) - On the Universality of Graph Neural Networks on Large Random Graphs [22.720758067273195]
グラフニューラルネットワーク(GNN)の潜在位置乱数グラフに対する近似能力について検討する。
大きなグラフ極限では、GNNはc-GNNとして知られるある種の連続的なモデルに収束することが知られている。
我々は,c-SGNNが連続限界におけるc-GNNよりも厳格に強力なことを示す。
論文 参考訳(メタデータ) (2021-05-27T12:52:36Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Expressive Power of Invariant and Equivariant Graph Neural Networks [10.419350129060598]
Folklore Graph Neural Networks (FGNN) は、与えられたテンソル次数に対してこれまで提案されてきた最も表現力のあるアーキテクチャである。
FGNNはこの問題の解決方法を学ぶことができ、既存のアルゴリズムよりも平均的なパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-06-28T16:35:45Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。