論文の概要: On the Universality of Graph Neural Networks on Large Random Graphs
- arxiv url: http://arxiv.org/abs/2105.13099v2
- Date: Fri, 28 May 2021 20:23:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 11:42:39.564660
- Title: On the Universality of Graph Neural Networks on Large Random Graphs
- Title(参考訳): 大規模ランダムグラフ上のグラフニューラルネットワークの普遍性について
- Authors: Nicolas Keriven, Alberto Bietti, Samuel Vaiter
- Abstract要約: グラフニューラルネットワーク(GNN)の潜在位置乱数グラフに対する近似能力について検討する。
大きなグラフ極限では、GNNはc-GNNとして知られるある種の連続的なモデルに収束することが知られている。
我々は,c-SGNNが連続限界におけるc-GNNよりも厳格に強力なことを示す。
- 参考スコア(独自算出の注目度): 22.720758067273195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the approximation power of Graph Neural Networks (GNNs) on latent
position random graphs. In the large graph limit, GNNs are known to converge to
certain "continuous" models known as c-GNNs, which directly enables a study of
their approximation power on random graph models. In the absence of input node
features however, just as GNNs are limited by the Weisfeiler-Lehman isomorphism
test, c-GNNs will be severely limited on simple random graph models. For
instance, they will fail to distinguish the communities of a well-separated
Stochastic Block Model (SBM) with constant degree function. Thus, we consider
recently proposed architectures that augment GNNs with unique node identifiers,
referred to as Structural GNNs here (SGNNs). We study the convergence of SGNNs
to their continuous counterpart (c-SGNNs) in the large random graph limit,
under new conditions on the node identifiers. We then show that c-SGNNs are
strictly more powerful than c-GNNs in the continuous limit, and prove their
universality on several random graph models of interest, including most SBMs
and a large class of random geometric graphs. Our results cover both
permutation-invariant and permutation-equivariant architectures.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の潜在位置ランダムグラフに対する近似能力について検討する。
大きなグラフ極限では、GNNはc-GNNとして知られるある種の「連続」モデルに収束することが知られており、ランダムグラフモデルに対する近似力を直接的に研究することができる。
しかし、入力ノード機能がない場合、Weisfeiler-Lehman同型テストによってGNNが制限されるのと同様に、c-GNNは単純なランダムグラフモデルに対して著しく制限される。
例えば、定次関数を持つよく分離された確率ブロックモデル(sbm)のコミュニティを区別できない。
そこで本稿では,GNNをユニークなノード識別子で拡張するアーキテクチャについて考察する。
本研究では,ノード識別子の新たな条件下で,SGNNとC-SGNNとの収束性について検討する。
次に、c-sgnn は連続極限において c-gnn よりも厳密に強く、多くの sbms や大きなランダム幾何グラフを含むいくつかのランダムグラフモデル上でそれらの普遍性を証明する。
この結果は置換不変量と置換同値なアーキテクチャの両方をカバーする。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - Graph Neural Networks with Local Graph Parameters [1.8600631687568656]
ローカルグラフパラメータは、任意のグラフニューラルネットワーク(GNN)アーキテクチャに追加することができる。
我々の結果は、有限モデル理論と有限変数論理の深い結果とGNNを結びつける。
論文 参考訳(メタデータ) (2021-06-12T07:43:51Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z) - Random Features Strengthen Graph Neural Networks [40.60905158071766]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ学習タスクのための強力な機械学習モデルである。
本稿では,各ノードにランダムな特徴を加えるだけで,GNNが強力になることを示す。
本稿では, グラフ畳み込みネットワーク (GCN) やグラフ同型ネットワーク (GIN) など, 通常のGNNでは解けない様々な問題を, ランダムな特徴の追加によりGNNが解決できることを示す。
論文 参考訳(メタデータ) (2020-02-08T12:47:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。