論文の概要: A Graphop Analysis of Graph Neural Networks on Sparse Graphs: Generalization and Universal Approximation
- arxiv url: http://arxiv.org/abs/2602.08785v1
- Date: Mon, 09 Feb 2026 15:25:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.322519
- Title: A Graphop Analysis of Graph Neural Networks on Sparse Graphs: Generalization and Universal Approximation
- Title(参考訳): スパースグラフ上のグラフニューラルネットワークのグラフ解析:一般化と普遍近似
- Authors: Ofek Amran, Tom Gilat, Ron Levie,
- Abstract要約: グラフニューラルネットワーク(MPNN)の一般化と近似能力は、MPNNがHlder連続である入力グラフの空間上でコンパクトな計量を定義することによって研究される。
我々は,MPNN が Hlder 連続であるような,すべての大きさのグラフの空間上のコンパクトな計量を定義する統一的手法を提案する。
- 参考スコア(独自算出の注目度): 13.843101157271034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalization and approximation capabilities of message passing graph neural networks (MPNNs) are often studied by defining a compact metric on a space of input graphs under which MPNNs are Hölder continuous. Such analyses are of two varieties: 1) when the metric space includes graphs of unbounded sizes, the theory is only appropriate for dense graphs, and, 2) when studying sparse graphs, the metric space only includes graphs of uniformly bounded size. In this work, we present a unified approach, defining a compact metric on the space of graphs of all sizes, both sparse and dense, under which MPNNs are Hölder continuous. This leads to more powerful universal approximation theorems and generalization bounds than previous works. The theory is based on, and extends, a recent approach to graph limit theory called graphop analysis.
- Abstract(参考訳): メッセージパッシンググラフニューラルネットワーク(MPNN)の一般化と近似能力は、MPNNがヘルダー連続である入力グラフの空間上でコンパクトな計量を定義することでしばしば研究される。
このような分析は2つの種類から成り立っている。
1) 距離空間が非有界な大きさのグラフを含むとき、その理論は密度グラフにのみ適している。
2) スパースグラフを研究するとき、計量空間は一様有界な大きさのグラフのみを含む。
本研究では,MPNN がヘルダー連続であるような疎密なグラフの空間上でコンパクトな計量を定義する統一的手法を提案する。
これにより、より強力な普遍近似定理や一般化境界が導かれる。
この理論は、グラフ解析と呼ばれるグラフ制限理論に対する最近のアプローチに基づいており、拡張されている。
関連論文リスト
- Generalization, Expressivity, and Universality of Graph Neural Networks on Attributed Graphs [53.27010448621372]
ノード属性を持つ属性グラフ上でのグラフニューラルネットワーク(GNN)の普遍性と一般化を解析する。
我々は、GNNに対する普遍近似定理と、属性グラフの任意のデータ分布上のGNNの有界一般化を証明した。
我々の研究は、属性のないグラフのみの導出理論、GNNが連続だが分離パワーのない導出コンパクトなメトリクス、GNNが連続かつ分離ポイントである導出指標を拡張・統合する。
論文 参考訳(メタデータ) (2024-11-08T10:34:24Z) - Generalization of Geometric Graph Neural Networks with Lipschitz Loss Functions [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
複数の実世界のデータセットに対する実験により、この理論結果を検証する。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Generalization Bounds for Message Passing Networks on Mixture of Graphons [21.457225542391267]
メッセージパッシングニューラルネットワーク(MPNN)の一般化機能について検討する。
正規化和アグリゲーションと平均アグリゲーションを持つMPNNに対して、特に一般化バウンダリを導出する。
以上の結果から,MPNNはトレーニングセットのサイズよりも複雑度が高いため,依然として効果的に一般化可能であることが示唆された。
論文 参考訳(メタデータ) (2024-04-04T14:26:47Z) - A graphon-signal analysis of graph neural networks [8.423229632785025]
本稿では,グラフトン解析からいわゆるグラフトン信号解析への拡張に基づく,メッセージパッシンググラフニューラルネットワーク(MPNN)の解析手法を提案する。
我々は、MPNNがグラフ-信号距離空間上のリプシッツ連続函数であることを証明した。
論文 参考訳(メタデータ) (2023-05-25T12:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。