論文の概要: Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth
- arxiv url: http://arxiv.org/abs/2105.04550v1
- Date: Mon, 10 May 2021 17:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 15:22:55.049011
- Title: Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth
- Title(参考訳): グラフニューラルネットワークの最適化:スキップ接続によるインプシット加速と深度向上
- Authors: Keyulu Xu, Mozhi Zhang, Stefanie Jegelka, Kenji Kawaguchi
- Abstract要約: グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
- 参考スコア(独自算出の注目度): 57.10183643449905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have been studied from the lens of expressive
power and generalization. However, their optimization properties are less well
understood. We take the first step towards analyzing GNN training by studying
the gradient dynamics of GNNs. First, we analyze linearized GNNs and prove that
despite the non-convexity of training, convergence to a global minimum at a
linear rate is guaranteed under mild assumptions that we validate on real-world
graphs. Second, we study what may affect the GNNs' training speed. Our results
show that the training of GNNs is implicitly accelerated by skip connections,
more depth, and/or a good label distribution. Empirical results confirm that
our theoretical results for linearized GNNs align with the training behavior of
nonlinear GNNs. Our results provide the first theoretical support for the
success of GNNs with skip connections in terms of optimization, and suggest
that deep GNNs with skip connections would be promising in practice.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、表現力と一般化のレンズから研究されている。
しかし、それらの最適化特性はよく分かっていない。
本研究は,GNNの勾配ダイナミクスを学習することで,GNNトレーニングの分析に向けての第一歩を踏み出す。
まず,線形化gnnを分析し,非凸性にも拘わらず,実世界のグラフ上で検証する軽度仮定の下では,線形レートでのグローバル最小値への収束が保証されることを示す。
第2に、GNNのトレーニング速度に影響を及ぼす可能性のあるものについて検討する。
その結果、GNNのトレーニングは、スキップ接続、深度、および/または良質なラベル分布によって暗黙的に加速されることがわかった。
線形化GNNの理論的結果は非線形GNNのトレーニング行動と一致していることを確認した。
この結果から, スキップ接続によるGNNの成功に対する理論的支援として, スキップ接続による深いGNNの実現が期待できる可能性が示唆された。
関連論文リスト
- Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Graph-less Neural Networks: Teaching Old MLPs New Tricks via
Distillation [34.676755383361005]
グラフレスニューラルネットワーク(GLNN)は、推論グラフに依存しない。
競争性能を持つGLNNは,146X-273XでGNNよりも高速で,14X-27Xで他の加速度法よりも高速であることを示す。
GLNNの包括的な分析は、GLNNがGsと競合する結果が得られる時期と理由を示し、レイテンシに制約のあるアプリケーションにとって便利な選択肢として、GLNNを提案する。
論文 参考訳(メタデータ) (2021-10-17T05:16:58Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。