論文の概要: A Theoretical Comparison of Graph Neural Network Extensions
- arxiv url: http://arxiv.org/abs/2201.12884v1
- Date: Sun, 30 Jan 2022 17:21:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 17:10:54.984675
- Title: A Theoretical Comparison of Graph Neural Network Extensions
- Title(参考訳): グラフニューラルネットワーク拡張の理論的比較
- Authors: P\'al Andr\'as Papp, Roger Wattenhofer
- Abstract要約: Wesfeiler-Lemanテスト以外のGNNの表現力を高めるグラフニューラルネットワーク拡張について検討し比較する。
それぞれの拡張に対して特に困難である負の例を示し、これらの拡張がグラフの傾きとサイクルを数えることができるといういくつかの主張を証明します。
- 参考スコア(独自算出の注目度): 10.482805367361818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study and compare different Graph Neural Network extensions that increase
the expressive power of GNNs beyond the Weisfeiler-Leman test. We focus on (i)
GNNs based on higher order WL methods, (ii) GNNs that preprocess small
substructures in the graph, (iii) GNNs that preprocess the graph up to a small
radius, and (iv) GNNs that slightly perturb the graph to compute an embedding.
We begin by presenting a simple improvement for this last extension that
strictly increases the expressive power of this GNN variant. Then, as our main
result, we compare the expressiveness of these extensions to each other through
a series of example constructions that can be distinguished by one of the
extensions, but not by another one. We also show negative examples that are
particularly challenging for each of the extensions, and we prove several
claims about the ability of these extensions to count cliques and cycles in the
graph.
- Abstract(参考訳): Wesfeiler-Lemanテスト以外のGNNの表現力を高めるグラフニューラルネットワーク拡張について検討し比較する。
焦点をあてる
(i)高次WL法に基づくGNN
(ii)グラフ内の小さなサブ構造を前処理するGNN
(iii)グラフを小さな半径まで前処理するgnn、及び
(iv)埋め込みを計算するためにグラフをわずかに乱すGNN。
我々はまず、このGNN変異の表現力を厳密に増強する最後の拡張に対する単純な改善を示すことから始める。
次に,本研究の主な結果として,拡張の表現性について,拡張の一方で区別できるが他方では区別できない一連の例構成を用いて比較する。
また、各拡張に対して特に困難である負の例を示し、これらの拡張がグラフの傾きとサイクルを数えることができるといういくつかの主張を証明している。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Equivariant Polynomials for Graph Neural Networks [38.15983687193912]
グラフネットワーク(GNN)は本質的に表現力に制限がある。
本稿では、GNNがある程度の同変を計算する能力に基づく代替パワー階層を提案する。
これらの強化されたGNNは、複数のグラフ学習ベンチマークの実験において最先端の結果を示す。
論文 参考訳(メタデータ) (2023-02-22T18:53:38Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Explainability in subgraphs-enhanced Graph Neural Networks [12.526174412246107]
グラフ強化グラフニューラルネットワーク(SGNN)は,GNNの表現力を高めるために導入された。
本稿では, GNN の最近の解説者の一つである PGExplainer を SGNN に適用する。
本稿では,グラフ分類タスクにおけるSGNNの決定過程を説明することに成功していることを示す。
論文 参考訳(メタデータ) (2022-09-16T13:39:10Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - Breaking the Expressive Bottlenecks of Graph Neural Networks [26.000304641965947]
近年, weisfeiler-lehman (wl) graph isomorphism test を用いてグラフニューラルネットワーク (gnns) の表現性の測定を行った。
本稿では,強力なアグリゲータを探索することで表現性を向上する。
論文 参考訳(メタデータ) (2020-12-14T02:36:46Z) - Counting Substructures with Higher-Order Graph Neural Networks:
Possibility and Impossibility Results [58.277290855841976]
グラフニューラルネットワーク(GNN)の計算コストと表現力のトレードオフについて検討する。
新しいモデルでは、$k$のサブグラフをカウントでき、低次GNNの既知の制限を克服できることを示す。
いくつかの場合において、提案アルゴリズムは既存の高階$k$-GNNに比べて計算量を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-12-06T03:42:54Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Expressive Power of Invariant and Equivariant Graph Neural Networks [10.419350129060598]
Folklore Graph Neural Networks (FGNN) は、与えられたテンソル次数に対してこれまで提案されてきた最も表現力のあるアーキテクチャである。
FGNNはこの問題の解決方法を学ぶことができ、既存のアルゴリズムよりも平均的なパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-06-28T16:35:45Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。