論文の概要: Graph Neural Networks Are More Powerful Than we Think
- arxiv url: http://arxiv.org/abs/2205.09801v1
- Date: Thu, 19 May 2022 18:40:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 12:45:34.102768
- Title: Graph Neural Networks Are More Powerful Than we Think
- Title(参考訳): グラフニューラルネットワークは思った以上に強力
- Authors: Charilaos I. Kanatsoulis and Alejandro Ribeiro
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々なノードレベルおよびグラフレベルタスクにおいて顕著なパフォーマンスを示す強力な畳み込みアーキテクチャである。
彼らの成功にもかかわらず、GNNの表現力は限られており、Weisfeiler-Lehman (WL)アルゴリズムと同じくらい差別的であるという共通の信念がある。
GNNは、少なくとも1つの固有値が異なるグラフと、WLアルゴリズムよりも確実に表現可能な単純なGNNアーキテクチャを区別できることを示す。
- 参考スコア(独自算出の注目度): 124.97061497512804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are powerful convolutional architectures that
have shown remarkable performance in various node-level and graph-level tasks.
Despite their success, the common belief is that the expressive power of GNNs
is limited and that they are at most as discriminative as the Weisfeiler-Lehman
(WL) algorithm. In this paper we argue the opposite and show that the WL
algorithm is the upper bound only when the input to the GNN is the vector of
all ones. In this direction, we derive an alternative analysis that employs
linear algebraic tools and characterize the representational power of GNNs with
respect to the eigenvalue decomposition of the graph operators. We show that
GNNs can distinguish between any graphs that differ in at least one eigenvalue
and design simple GNN architectures that are provably more expressive than the
WL algorithm. Thorough experimental analysis on graph isomorphism and graph
classification datasets corroborates our theoretical results and demonstrates
the effectiveness of the proposed architectures.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々なノードレベルおよびグラフレベルタスクにおいて顕著なパフォーマンスを示す強力な畳み込みアーキテクチャである。
彼らの成功にもかかわらず、GNNの表現力は限られており、Weisfeiler-Lehman (WL)アルゴリズムと同じくらい差別的であるという共通の信念がある。
本稿では、逆を論じ、GNNへの入力が全てのベクトルである場合にのみ、WLアルゴリズムが上限となることを示す。
この方向において、線形代数ツールを用いてグラフ演算子の固有値分解に関するGNNの表現力を特徴づける別の解析法を導出する。
GNNは、少なくとも1つの固有値が異なるグラフと、WLアルゴリズムよりも確実に表現可能な単純なGNNアーキテクチャを区別できることを示す。
グラフ同型とグラフ分類データセットに関する徹底した実験分析により,提案するアーキテクチャの有効性が実証された。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - GOAt: Explaining Graph Neural Networks via Graph Output Attribution [32.66251068600664]
本稿では,入力グラフの特徴にグラフ出力を属性付ける新しい手法として,グラフ出力属性(GOAt)を提案する。
GOAtは忠実で差別的で、類似のサンプルで安定している。
提案手法は, 一般に使用されている忠実度測定値において, 最先端のGNN説明器よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-26T00:32:58Z) - Uplifting the Expressive Power of Graph Neural Networks through Graph
Partitioning [3.236774847052122]
グラフ分割のレンズによるグラフニューラルネットワークの表現力について検討する。
我々は新しいGNNアーキテクチャ、すなわちグラフ分割ニューラルネットワーク(GPNN)を導入する。
論文 参考訳(メタデータ) (2023-12-14T06:08:35Z) - Generalization Limits of Graph Neural Networks in Identity Effects
Learning [12.302336258860116]
グラフニューラルネットワーク(GNN)は、さまざまなグラフドメインでデータ駆動学習を行う強力なツールとして登場した。
我々は、いわゆるアイデンティティ効果の学習において、GNNの新たな一般化特性と基本的限界を確立する。
我々の研究は、単純な認知タスクを行う際に、GNNの能力を理解する必要性によって動機付けられている。
論文 参考訳(メタデータ) (2023-06-30T20:56:38Z) - Weisfeiler-Lehman goes Dynamic: An Analysis of the Expressive Power of Graph Neural Networks for Attributed and Dynamic Graphs [1.3757956340051607]
グラフニューラルネットワーク(GNN)は、グラフ処理のための大規模なリレーショナルモデルである。
GNNの表現力に関する最近の研究は、グラフを識別する能力に焦点を当てている。
実生活のアプリケーションは、しばしばより広い種類のグラフを含む。
論文 参考訳(メタデータ) (2022-10-08T10:14:41Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。