論文の概要: Stability and Generalization Capabilities of Message Passing Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2202.00645v1
- Date: Tue, 1 Feb 2022 18:37:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 14:47:13.221352
- Title: Stability and Generalization Capabilities of Message Passing Graph
Neural Networks
- Title(参考訳): メッセージパッシンググラフニューラルネットワークの安定性と一般化機能
- Authors: Sohir Maskey, Yunseok Lee, Ron Levie, Gitta Kutyniok
- Abstract要約: グラフ分類におけるMPNNの一般化能力について検討する。
経験的損失と統計的損失の間の一般化ギャップに非漸近的境界を導出する。
これは、グラフに適用されたMPNNが、グラフが識別する幾何学的モデルに適用されたMPNNを近似することを示すことで証明される。
- 参考スコア(独自算出の注目度): 4.691259009382681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Message passing neural networks (MPNN) have seen a steep rise in popularity
since their introduction as generalizations of convolutional neural networks to
graph structured data, and are now considered state-of-the-art tools for
solving a large variety of graph-focused problems. We study the generalization
capabilities of MPNNs in graph classification. We assume that graphs of
different classes are sampled from different random graph models. Based on this
data distribution, we derive a non-asymptotic bound on the generalization gap
between the empirical and statistical loss, that decreases to zero as the
graphs become larger. This is proven by showing that a MPNN, applied on a
graph, approximates the MPNN applied on the geometric model that the graph
discretizes.
- Abstract(参考訳): メッセージパッシングニューラルネットワーク(MPNN)は、グラフ構造化データへの畳み込みニューラルネットワークの一般化として導入されて以来、急速に人気が高まっている。
グラフ分類におけるMPNNの一般化能力について検討する。
異なるクラスのグラフは異なるランダムグラフモデルからサンプリングされると仮定する。
このデータ分布に基づいて、経験的損失と統計的損失の間の一般化ギャップの非漸近境界を導出し、グラフが大きくなるにつれてゼロに減少する。
これは、グラフに適用されたMPNNが、グラフが識別する幾何学モデルに適用されたMPNNに近似することを示して証明される。
関連論文リスト
- Generalization of Geometric Graph Neural Networks [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
最も重要な観察は、前の結果のようにグラフのサイズに制限されるのではなく、1つの大きなグラフで一般化能力を実現することができることである。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Generalization Bounds for Message Passing Networks on Mixture of Graphons [21.457225542391267]
メッセージパッシングニューラルネットワーク(MPNN)の一般化機能について検討する。
正規化和アグリゲーションと平均アグリゲーションを持つMPNNに対して、特に一般化バウンダリを導出する。
以上の結果から,MPNNはトレーニングセットのサイズよりも複雑度が高いため,依然として効果的に一般化可能であることが示唆された。
論文 参考訳(メタデータ) (2024-04-04T14:26:47Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Graph Anomaly Detection with Graph Neural Networks: Current Status and
Challenges [9.076649460696402]
グラフニューラルネットワーク(GNN)は広く研究され、困難な機械学習タスクを成功させた。
本調査は,GNNに基づくグラフ異常検出手法の総合的なレビューとしては初めてである。
論文 参考訳(メタデータ) (2022-09-29T16:47:57Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - KGNN: Harnessing Kernel-based Networks for Semi-supervised Graph
Classification [13.419578861488226]
半教師付きグラフ分類のための Kernel-based Graph Neural Network (KGNN) を提案する。
我々は,KGNNが競争ベースラインよりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-21T10:03:46Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。