論文の概要: Semi-Supervised Learning on Graphs using Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2602.17115v1
- Date: Thu, 19 Feb 2026 06:25:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.790633
- Title: Semi-Supervised Learning on Graphs using Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークを用いたグラフの半教師付き学習
- Authors: Juntong Chen, Claire Donnat, Olga Klopp, Johannes Schmidt-Hieber,
- Abstract要約: グラフニューラルネットワーク(GNN)は、半教師付きノード回帰において極めてうまく機能する。
本稿では,複数の共通メッセージパッシングアーキテクチャを含むアグリゲート・アンド・リードアウトモデルについて検討する。
我々は、誤差近似、収束、最適化を分離する急激な非漸近的リスク境界を証明した。
- 参考スコア(独自算出の注目度): 7.3886152750469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) work remarkably well in semi-supervised node regression, yet a rigorous theory explaining when and why they succeed remains lacking. To address this gap, we study an aggregate-and-readout model that encompasses several common message passing architectures: node features are first propagated over the graph then mapped to responses via a nonlinear function. For least-squares estimation over GNNs with linear graph convolutions and a deep ReLU readout, we prove a sharp non-asymptotic risk bound that separates approximation, stochastic, and optimization errors. The bound makes explicit how performance scales with the fraction of labeled nodes and graph-induced dependence. Approximation guarantees are further derived for graph-smoothing followed by smooth nonlinear readouts, yielding convergence rates that recover classical nonparametric behavior under full supervision while characterizing performance when labels are scarce. Numerical experiments validate our theory, providing a systematic framework for understanding GNN performance and limitations.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、半教師付きノード回帰において著しくうまく機能するが、いつ、なぜ成功しなかったかを説明する厳密な理論である。
このギャップに対処するため,ノード特徴をまずグラフ上に伝播し,非線形関数を介して応答にマッピングする,複数の共通メッセージパッシングアーキテクチャを含む集約・読出モデルについて検討した。
線形グラフ畳み込みと深いReLU読み出しを持つGNNに対する最小二乗推定では、近似、確率、最適化誤差を分離する急激な非漸近的リスク境界が証明される。
このバウンダリは、ラベル付きノード数とグラフ依存によるパフォーマンスのスケールアップを明確にする。
グラフ平滑化とスムーズな非線形読み出しにより近似保証がさらに導出され、ラベル不足時の性能を特徴付けるとともに、完全監督下で古典的非パラメトリックな振る舞いを回復する収束率が得られる。
GNNの性能と限界を理解するための体系的な枠組みを提供する。
関連論文リスト
- Generalization of Geometric Graph Neural Networks with Lipschitz Loss Functions [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
複数の実世界のデータセットに対する実験により、この理論結果を検証する。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - Non-convolutional Graph Neural Networks [46.79328529882998]
畳み込み演算子を完全に含まない単純なグラフ学習モジュールを設計し、RUMニューラルネットワークを用いたランダムウォークを作成した。
RUMは競合する性能を実現するが、より堅牢で、メモリ効率が高く、スケーラブルで、最も単純な畳み込みGNNよりも高速である。
論文 参考訳(メタデータ) (2024-07-31T21:29:26Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Understanding Non-linearity in Graph Neural Networks from the
Bayesian-Inference Perspective [33.01636846541052]
グラフニューラルネットワーク(GNN)は、グラフよりも多くの予測タスクにおいて優位性を示している。
ノード分類タスクにおけるGNNにおける非線形性の関数について検討する。
論文 参考訳(メタデータ) (2022-07-22T19:36:12Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。