論文の概要: VC dimension of Graph Neural Networks with Pfaffian activation functions
- arxiv url: http://arxiv.org/abs/2401.12362v1
- Date: Mon, 22 Jan 2024 21:11:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 17:30:34.272267
- Title: VC dimension of Graph Neural Networks with Pfaffian activation functions
- Title(参考訳): ファフィアン活性化関数を持つグラフニューラルネットワークのVC次元
- Authors: Giuseppe Alessio D'Inverno, Monica Bianchini, Franco Scarselli
- Abstract要約: グラフニューラルネットワーク(GNN)は、近年、広範囲のグラフドメインでタスクを学習する強力なツールとして登場している。
我々の研究の目的は、GNNのVC次元に関するこの分析を、シグモイドや双曲タンジェントといった他のよく使われる活性化関数に拡張することである。
- 参考スコア(独自算出の注目度): 4.654647701319798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have emerged in recent years as a powerful tool
to learn tasks across a wide range of graph domains in a data-driven fashion;
based on a message passing mechanism, GNNs have gained increasing popularity
due to their intuitive formulation, closely linked with the Weisfeiler-Lehman
(WL) test for graph isomorphism, to which they have proven equivalent. From a
theoretical point of view, GNNs have been shown to be universal approximators,
and their generalization capability (namely, bounds on the Vapnik Chervonekis
(VC) dimension) has recently been investigated for GNNs with piecewise
polynomial activation functions. The aim of our work is to extend this analysis
on the VC dimension of GNNs to other commonly used activation functions, such
as sigmoid and hyperbolic tangent, using the framework of Pfaffian function
theory. Bounds are provided with respect to architecture parameters (depth,
number of neurons, input size) as well as with respect to the number of colors
resulting from the 1-WL test applied on the graph domain. The theoretical
analysis is supported by a preliminary experimental study.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、近年、データ駆動方式で幅広いグラフドメインのタスクを学習する強力なツールとして登場している。メッセージパッシング機構に基づいて、グラフ同型に対するWeisfeiler-Lehman(WL)テストと密接に関連した、直感的な定式化によって、GNNの人気が高まっている。
理論的な観点から、GNNは普遍近似器であることが示され、その一般化能力(すなわち、Vapnik Chervonekis(VC)次元上の境界)は、多項式活性化関数を持つGNNに対して最近研究されている。
本研究の目的は, ファフ関数理論の枠組みを用いて, GNNのVC次元に関するこの解析をシグモイドや双曲タンジェントといった他のよく用いられる活性化関数に拡張することである。
境界は、アーキテクチャパラメータ(深さ、ニューロン数、入力サイズ)、およびグラフドメインに適用された1-wlテストによる色数について提供される。
この理論解析は予備的な実験研究によって裏付けられている。
関連論文リスト
- A note on the VC dimension of 1-dimensional GNNs [6.0757501646966965]
グラフニューラルネットワーク(GNN)は,グラフ構造化データを解析するための重要なツールとなっている。
本稿では,GNNの一般化について,Vapnik-Chervonenkis(VC)次元について検討する。
論文 参考訳(メタデータ) (2024-10-10T11:33:15Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - The Expressive Power of Graph Neural Networks: A Survey [9.08607528905173]
定義の異なる表現力向上モデルに関する第1回調査を行う。
モデルは、グラフ機能拡張、グラフトポロジ拡張、GNNアーキテクチャ拡張という3つのカテゴリに基づいてレビューされる。
論文 参考訳(メタデータ) (2023-08-16T09:12:21Z) - Generalization Limits of Graph Neural Networks in Identity Effects
Learning [12.302336258860116]
グラフニューラルネットワーク(GNN)は、さまざまなグラフドメインでデータ駆動学習を行う強力なツールとして登場した。
我々は、いわゆるアイデンティティ効果の学習において、GNNの新たな一般化特性と基本的限界を確立する。
我々の研究は、単純な認知タスクを行う際に、GNNの能力を理解する必要性によって動機付けられている。
論文 参考訳(メタデータ) (2023-06-30T20:56:38Z) - What functions can Graph Neural Networks compute on random graphs? The
role of Positional Encoding [0.0]
我々は,グラフニューラルネットワーク(GNN)の大規模グラフに対する理論的理解を深めることを目指しており,その表現力に着目している。
近年、GNNは、非常に一般的なランダムグラフモデルにおいて、ノード数が増加するにつれて、特定の関数に収束することを示した。
論文 参考訳(メタデータ) (2023-05-24T07:09:53Z) - Equivariant Polynomials for Graph Neural Networks [38.15983687193912]
グラフネットワーク(GNN)は本質的に表現力に制限がある。
本稿では、GNNがある程度の同変を計算する能力に基づく代替パワー階層を提案する。
これらの強化されたGNNは、複数のグラフ学習ベンチマークの実験において最先端の結果を示す。
論文 参考訳(メタデータ) (2023-02-22T18:53:38Z) - Representation Power of Graph Neural Networks: Improved Expressivity via
Algebraic Analysis [124.97061497512804]
標準グラフニューラルネットワーク (GNN) はWeisfeiler-Lehman (WL) アルゴリズムよりも差別的な表現を生成する。
また、白い入力を持つ単純な畳み込みアーキテクチャは、グラフの閉経路をカウントする同変の特徴を生じさせることを示した。
論文 参考訳(メタデータ) (2022-05-19T18:40:25Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。