論文の概要: On the Convergence and Size Transferability of Continuous-depth Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2510.03923v1
- Date: Sat, 04 Oct 2025 19:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.345901
- Title: On the Convergence and Size Transferability of Continuous-depth Graph Neural Networks
- Title(参考訳): 連続深部グラフニューラルネットワークの収束性とサイズ伝達性について
- Authors: Mingsong Yan, Charles Kulick, Sui Tang,
- Abstract要約: 連続深度グラフニューラルネットワーク(GNN)は、グラフニューラルネットワーク(GNN)の構造誘導バイアスと、グラフニューラル微分方程式(ODE)の連続深度アーキテクチャを結合する。
無限極極限における時間パラメータを持つNeuralEsの厳密な収束解析を行い、そのサイズ伝達可能性に関する理論的知見を提供する。
- 参考スコア(独自算出の注目度): 3.3390650922528184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continuous-depth graph neural networks, also known as Graph Neural Differential Equations (GNDEs), combine the structural inductive bias of Graph Neural Networks (GNNs) with the continuous-depth architecture of Neural ODEs, offering a scalable and principled framework for modeling dynamics on graphs. In this paper, we present a rigorous convergence analysis of GNDEs with time-varying parameters in the infinite-node limit, providing theoretical insights into their size transferability. To this end, we introduce Graphon Neural Differential Equations (Graphon-NDEs) as the infinite-node limit of GNDEs and establish their well-posedness. Leveraging tools from graphon theory and dynamical systems, we prove the trajectory-wise convergence of GNDE solutions to Graphon-NDE solutions. Moreover, we derive explicit convergence rates under two deterministic graph sampling regimes: (1) weighted graphs sampled from smooth graphons, and (2) unweighted graphs sampled from $\{0,1\}$-valued (discontinuous) graphons. We further establish size transferability bounds, providing theoretical justification for the practical strategy of transferring GNDE models trained on moderate-sized graphs to larger, structurally similar graphs without retraining. Numerical experiments using synthetic and real data support our theoretical findings.
- Abstract(参考訳): Graph Neural Differential Equations(GNDE)とも呼ばれる連続深度グラフニューラルネットワークは、グラフニューラルネットワーク(GNN)の構造的帰納バイアスと、Neural ODEの継続的深度アーキテクチャを組み合わせることで、グラフ上のダイナミクスをモデル化するためのスケーラブルで原則化されたフレームワークを提供する。
本稿では,GNDEの無限極極限における時間変化パラメータを用いた厳密な収束解析を行い,GNDEの粒径移動性に関する理論的知見を提供する。
この目的のために、GNDEの無限極極限としてGraphon Neural Differential Equations (Graphon-NDEs)を導入し、その正当性を確立する。
グラノン理論と力学系からツールを活用することで、GNDE解のグラノン-NDE解への軌跡的収束を証明できる。
さらに、(1)滑らかなグラフからサンプリングされた重み付きグラフと(2)${0,1\}$-valued(不連続)グラフからサンプリングされた非重み付きグラフである。
我々はさらにサイズ転送可能性境界を定め、中規模グラフで訓練されたGNDEモデルを再学習することなく、より大きく構造的に類似したグラフに転送する実用的な戦略を理論的に正当化する。
合成データと実データを用いた数値実験は、我々の理論的な結果を裏付ける。
関連論文リスト
- Convergence of gradient based training for linear Graph Neural Networks [5.079602839359521]
平均二乗損失を持つ線形GNNの勾配流のトレーニングは指数速度で大域最小値に収束することを示す。
また,勾配降下訓練における線形GNNの収束について検討した。
論文 参考訳(メタデータ) (2025-01-24T12:18:30Z) - Scalable Implicit Graphon Learning [25.015678499211404]
本稿では、暗黙的ニューラルネットワーク(INR)とグラフニューラルネットワーク(GNN)を組み合わせて、観測されたグラフからグラフを推定するスケーラブルな手法を提案する。
合成グラフと実世界のグラフでSIGLを評価し,既存の手法より優れ,大規模グラフに効果的にスケール可能であることを示した。
論文 参考訳(メタデータ) (2024-10-22T22:44:24Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - Supercharging Graph Transformers with Advective Diffusion [28.40109111316014]
本稿では,この課題に対処するために,物理に着想を得たグラフトランスモデルであるAdvDIFFormerを提案する。
本稿では,AdvDIFFormerが位相シフトによる一般化誤差を制御できることを示す。
経験的に、このモデルは情報ネットワーク、分子スクリーニング、タンパク質相互作用の様々な予測タスクにおいて優位性を示す。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - Graph and graphon neural network stability [122.06927400759021]
グラフネットワーク(GNN)は、ネットワークデータの有意義な表現を生成するためにグラフ構造の知識に依存する学習アーキテクチャである。
我々は,GNNの安定性を,グラファイトと呼ばれるカーネルオブジェクトを用いて解析する。
論文 参考訳(メタデータ) (2020-10-23T16:55:56Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z) - The Power of Graph Convolutional Networks to Distinguish Random Graph
Models: Short Version [27.544219236164764]
グラフ畳み込みネットワーク(GCN)はグラフ表現学習において広く使われている手法である。
サンプルグラフの埋め込みに基づいて異なるランダムグラフモデルを区別するGCNのパワーについて検討する。
論文 参考訳(メタデータ) (2020-02-13T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。