論文の概要: PAC-Bayesian Generalization Bounds for Graph Convolutional Networks on Inductive Node Classification
- arxiv url: http://arxiv.org/abs/2509.06600v1
- Date: Mon, 08 Sep 2025 12:10:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.116302
- Title: PAC-Bayesian Generalization Bounds for Graph Convolutional Networks on Inductive Node Classification
- Title(参考訳): 帰納ノード分類に基づくグラフ畳み込みネットワークのためのPAC-Bayesian一般化境界
- Authors: Huayi Tang, Yong Liu,
- Abstract要約: 帰納ノード分類のためのグラフ畳み込みネットワーク(GCN)のPAC-ベイズ理論解析を提案する。
我々は,データ依存性と非定常性の影響を明示的に組み込んだ一層GCNに対して,新しい一般化バウンダリを導出する。
我々は解析を二層GCNに拡張し、収束を保証するためにグラフトポロジーに強い仮定が必要であることを明らかにした。
- 参考スコア(独自算出の注目度): 20.5924958759845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have achieved remarkable success in processing graph-structured data across various applications. A critical aspect of real-world graphs is their dynamic nature, where new nodes are continually added and existing connections may change over time. Previous theoretical studies, largely based on the transductive learning framework, fail to adequately model such temporal evolution and structural dynamics. In this paper, we presents a PAC-Bayesian theoretical analysis of graph convolutional networks (GCNs) for inductive node classification, treating nodes as dependent and non-identically distributed data points. We derive novel generalization bounds for one-layer GCNs that explicitly incorporate the effects of data dependency and non-stationarity, and establish sufficient conditions under which the generalization gap converges to zero as the number of nodes increases. Furthermore, we extend our analysis to two-layer GCNs, and reveal that it requires stronger assumptions on graph topology to guarantee convergence. This work establishes a theoretical foundation for understanding and improving GNN generalization in dynamic graph environments.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションにわたるグラフ構造化データ処理において、目覚ましい成功を収めている。
現実世界のグラフの重要な側面は、その動的性質であり、新しいノードが継続的に追加され、既存の接続が時間とともに変化する可能性がある。
過去の理論的研究は、主にトランスダクティブ学習の枠組みに基づいており、時間的進化や構造力学を適切にモデル化することができない。
本稿では、帰納的ノード分類のためのグラフ畳み込みネットワーク(GCN)のPAC-ベイズ理論解析を行い、ノードを依存的および非識別的データポイントとして扱う。
我々は,データ依存性と非定常性の影響を明示的に包含する一層GCNに対する新しい一般化境界を導出し,ノード数が増加するにつれて一般化ギャップが0に収束する十分な条件を確立する。
さらに、我々は2層GCNに解析を拡張し、収束を保証するためにグラフトポロジーに強い仮定が必要であることを明らかにした。
この研究は、動的グラフ環境におけるGNN一般化の理解と改善のための理論的基盤を確立する。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Generalization Guarantee of Training Graph Convolutional Networks with
Graph Topology Sampling [83.77955213766896]
グラフ畳み込みネットワーク(GCN)は近年,グラフ構造化データの学習において大きな成功を収めている。
スケーラビリティ問題に対処するため、Gsの学習におけるメモリと計算コストを削減するため、グラフトポロジサンプリングが提案されている。
本稿では,3層GCNのトレーニング(最大)におけるグラフトポロジサンプリングの最初の理論的正当性について述べる。
論文 参考訳(メタデータ) (2022-07-07T21:25:55Z) - Curvature Graph Neural Network [8.477559786537919]
離散グラフ曲率(リッチ曲率)を導入し、対ノードの構造接続の強度を定量化する。
GNNの適応的局所性能力を効果的に向上する曲線グラフニューラルネットワーク(CGNN)を提案する。
合成データセットの実験結果から,CGNNはトポロジ構造情報を効果的に活用していることがわかった。
論文 参考訳(メタデータ) (2021-06-30T00:56:03Z) - A PAC-Bayesian Approach to Generalization Bounds for Graph Neural
Networks [99.46182575751271]
グラフニューラルネットワーク(GNN)の2つの一次クラスに対する一般化境界を導出する。
その結果,重みの最大ノード次数とスペクトルノルムが両モデルの一般化境界を規定することが明らかとなった。
論文 参考訳(メタデータ) (2020-12-14T16:41:23Z) - Revisiting Graph Convolutional Network on Semi-Supervised Node
Classification from an Optimization Perspective [10.178145000390671]
グラフ畳み込みネットワーク(GCN)は、様々なグラフベースのタスクにおいて有望な性能を達成した。
しかし、より多くのレイヤを積み重ねる際には、過剰なスムーシングに悩まされる。
本稿では,この観測を定量的に研究し,より深いGCNに対する新たな洞察を開拓する。
論文 参考訳(メタデータ) (2020-09-24T03:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。