論文の概要: Expressiveness and Approximation Properties of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2204.04661v1
- Date: Sun, 10 Apr 2022 11:33:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 09:14:03.884305
- Title: Expressiveness and Approximation Properties of Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの表現性と近似特性
- Authors: Floris Geerts, Juan L. Reutter
- Abstract要約: Wesfeiler-Leman (WL) テストの観点で GNN の分離パワーのバウンダリを得るためのエレガントな方法を提供する。
我々はテンソル言語を用いて、MPNNの自然な拡張である高次メッセージパッシングニューラルネットワーク(またはk-MPNN)を定義する。
提案手法は,GNNアーキテクチャ設計者がGNNの分離パワーを解析できるツールボックスを提供する。
- 参考スコア(独自算出の注目度): 6.1323142294300625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Characterizing the separation power of graph neural networks (GNNs) provides
an understanding of their limitations for graph learning tasks. Results
regarding separation power are, however, usually geared at specific GNN
architectures, and tools for understanding arbitrary GNN architectures are
generally lacking. We provide an elegant way to easily obtain bounds on the
separation power of GNNs in terms of the Weisfeiler-Leman (WL) tests, which
have become the yardstick to measure the separation power of GNNs. The crux is
to view GNNs as expressions in a procedural tensor language describing the
computations in the layers of the GNNs. Then, by a simple analysis of the
obtained expressions, in terms of the number of indexes and the nesting depth
of summations, bounds on the separation power in terms of the WL-tests readily
follow. We use tensor language to define Higher-Order Message-Passing Neural
Networks (or k-MPNNs), a natural extension of MPNNs. Furthermore, the tensor
language point of view allows for the derivation of universality results for
classes of GNNs in a natural way. Our approach provides a toolbox with which
GNN architecture designers can analyze the separation power of their GNNs,
without needing to know the intricacies of the WL-tests. We also provide
insights in what is needed to boost the separation power of GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の分離パワーを特徴付けることで、グラフ学習タスクの限界を理解することができる。
しかしながら、分離電力に関する結果は、通常、特定のGNNアーキテクチャを念頭に置いており、任意のGNNアーキテクチャを理解するためのツールは一般的に欠落している。
Wesfeiler-Leman (WL) テストでGNNの分離パワーの限界を容易に得るためのエレガントな方法を提供し、GNNの分離パワーを測定するためのヤードスティックとなった。
その要点は、GNNを手続きテンソル言語で表現し、GNNの層における計算を記述することである。
そして、得られた式を簡易に解析することにより、インデックスの数と和のネスティング深さの観点から、WL-テストの観点から分離パワーのバウンドが容易に従うことができる。
我々はテンソル言語を用いて、MPNNの自然な拡張である高次メッセージパッシングニューラルネットワーク(またはk-MPNN)を定義する。
さらに、テンソル言語の観点からは、自然にGNNのクラスに対する普遍性の結果を導出することができる。
我々の手法は、GNNアーキテクチャ設計者がWLテストの複雑さを知ることなく、GNNの分離パワーを解析できるツールボックスを提供する。
また、GNNの分離能力を高めるために何が必要かを洞察する。
関連論文リスト
- MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - Generalization Limits of Graph Neural Networks in Identity Effects
Learning [12.302336258860116]
グラフニューラルネットワーク(GNN)は、さまざまなグラフドメインでデータ駆動学習を行う強力なツールとして登場した。
我々は、いわゆるアイデンティティ効果の学習において、GNNの新たな一般化特性と基本的限界を確立する。
我々の研究は、単純な認知タスクを行う際に、GNNの能力を理解する必要性によって動機付けられている。
論文 参考訳(メタデータ) (2023-06-30T20:56:38Z) - Equivariant Polynomials for Graph Neural Networks [38.15983687193912]
グラフネットワーク(GNN)は本質的に表現力に制限がある。
本稿では、GNNがある程度の同変を計算する能力に基づく代替パワー階層を提案する。
これらの強化されたGNNは、複数のグラフ学習ベンチマークの実験において最先端の結果を示す。
論文 参考訳(メタデータ) (2023-02-22T18:53:38Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Edge-Level Explanations for Graph Neural Networks by Extending
Explainability Methods for Convolutional Neural Networks [33.20913249848369]
グラフニューラルネットワーク(GNN)は、グラフデータを入力として扱うディープラーニングモデルであり、トラフィック予測や分子特性予測といった様々なタスクに適用される。
本稿では,CNNに対する説明可能性の手法として,LIME(Local Interpretable Model-Agnostic Explanations)やGradient-Based Saliency Maps,Gradient-Weighted Class Activation Mapping(Grad-CAM)をGNNに拡張する。
実験結果から,LIMEに基づくアプローチは実環境における複数のタスクに対する最も効率的な説明可能性手法であり,その状態においても優れていたことが示唆された。
論文 参考訳(メタデータ) (2021-11-01T06:27:29Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Expressive Power of Invariant and Equivariant Graph Neural Networks [10.419350129060598]
Folklore Graph Neural Networks (FGNN) は、与えられたテンソル次数に対してこれまで提案されてきた最も表現力のあるアーキテクチャである。
FGNNはこの問題の解決方法を学ぶことができ、既存のアルゴリズムよりも平均的なパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-06-28T16:35:45Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。