論文の概要: Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective
- arxiv url: http://arxiv.org/abs/2306.13926v2
- Date: Mon, 14 Aug 2023 09:04:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 19:33:39.807715
- Title: Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective
- Title(参考訳): グラフニューラルネットワークは構造情報から確実に恩恵を受ける:機能学習の視点から
- Authors: Wei Huang, Yuan Cao, Haonan Wang, Xin Cao, Taiji Suzuki
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
- 参考スコア(独自算出の注目度): 53.999128831324576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have pioneered advancements in graph
representation learning, exhibiting superior feature learning and performance
over multilayer perceptrons (MLPs) when handling graph inputs. However,
understanding the feature learning aspect of GNNs is still in its initial
stage. This study aims to bridge this gap by investigating the role of graph
convolution within the context of feature learning theory in neural networks
using gradient descent training. We provide a distinct characterization of
signal learning and noise memorization in two-layer graph convolutional
networks (GCNs), contrasting them with two-layer convolutional neural networks
(CNNs). Our findings reveal that graph convolution significantly augments the
benign overfitting regime over the counterpart CNNs, where signal learning
surpasses noise memorization, by approximately factor $\sqrt{D}^{q-2}$, with
$D$ denoting a node's expected degree and $q$ being the power of the ReLU
activation function where $q > 2$. These findings highlight a substantial
discrepancy between GNNs and MLPs in terms of feature learning and
generalization capacity after gradient descent training, a conclusion further
substantiated by our empirical simulations.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はグラフ表現学習の先駆者であり、グラフ入力を処理する際に多層パーセプトロン(MLP)よりも優れた特徴学習と性能を示す。
しかし、GNNの機能学習の側面を理解することは、まだ初期段階にある。
本研究では,勾配降下学習を用いたニューラルネットワークにおける特徴学習理論の文脈におけるグラフ畳み込みの役割を調べることにより,このギャップを埋めることを目的とする。
二層グラフ畳み込みニューラルネットワーク (gcns) における信号学習と雑音記憶の特徴について検討し, 2層畳み込みニューラルネットワーク (cnns) と対比した。
以上の結果から,信号学習が雑音記憶を超越するCNNに対して,グラフの畳み込みは,約$$\sqrt{D}^{q-2}$でノードの期待値を示す$D$と,$q > 2$でReLU活性化関数のパワーである$q$を大きく増大させることがわかった。
これらの結果は,勾配降下訓練後の特徴学習と一般化能力において,GNNとMLPの相違が顕著であり,実験シミュレーションによりさらに裏付けられた結論である。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - Parameter Convex Neural Networks [13.42851919291587]
本研究では,ある条件下でのニューラルネットワークのパラメータに関して凸である指数的多層ニューラルネットワーク(EMLP)を提案する。
後期実験では,指数グラフ畳み込みネットワーク(EGCN)を同じアーキテクチャで構築し,グラフ分類データセット上で実験を行う。
論文 参考訳(メタデータ) (2022-06-11T16:44:59Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Variational models for signal processing with Graph Neural Networks [3.5939555573102853]
本稿では,ニューラルネットワークを用いた点雲の信号処理について述べる。
本研究では,このようなグラフニューラルネットワークの変分モデルを用いて,教師なし学習のためのグラフ上の信号を処理する方法を検討する。
論文 参考訳(メタデータ) (2021-03-30T13:31:11Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。