論文の概要: Learning Theory Can (Sometimes) Explain Generalisation in Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2112.03968v1
- Date: Tue, 7 Dec 2021 20:06:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 14:36:58.036829
- Title: Learning Theory Can (Sometimes) Explain Generalisation in Graph Neural
Networks
- Title(参考訳): 学習理論はグラフニューラルネットワークの一般化を(時々)説明できる
- Authors: Pascal Mattia Esser, Leena Chennuru Vankadara, Debarghya Ghoshdastidar
- Abstract要約: 本稿では,トランスダクティブ推論の文脈におけるニューラルネットワークの性能を厳密に分析する。
本稿では, ブロックモデルに対するグラフ畳み込みネットワークの一般化特性について, トランスダクティブなRademacher複雑性が説明できることを示す。
- 参考スコア(独自算出の注目度): 13.518582483147325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, several results in the supervised learning setting suggested
that classical statistical learning-theoretic measures, such as VC dimension,
do not adequately explain the performance of deep learning models which
prompted a slew of work in the infinite-width and iteration regimes. However,
there is little theoretical explanation for the success of neural networks
beyond the supervised setting. In this paper we argue that, under some
distributional assumptions, classical learning-theoretic measures can
sufficiently explain generalization for graph neural networks in the
transductive setting. In particular, we provide a rigorous analysis of the
performance of neural networks in the context of transductive inference,
specifically by analysing the generalisation properties of graph convolutional
networks for the problem of node classification. While VC Dimension does result
in trivial generalisation error bounds in this setting as well, we show that
transductive Rademacher complexity can explain the generalisation properties of
graph convolutional networks for stochastic block models. We further use the
generalisation error bounds based on transductive Rademacher complexity to
demonstrate the role of graph convolutions and network architectures in
achieving smaller generalisation error and provide insights into when the graph
structure can help in learning. The findings of this paper could re-new the
interest in studying generalisation in neural networks in terms of
learning-theoretic measures, albeit in specific problems.
- Abstract(参考訳): 近年,教師付き学習環境におけるいくつかの結果から,vc次元などの古典的統計的学習理論の尺度では,無限幅と反復領域で多くの作業が促進される深層学習モデルの性能を十分に説明できないことが示唆された。
しかし、教師付きセッティングを超えてニューラルネットワークが成功するという理論的説明はほとんどない。
本稿では, 分布的仮定の下では, 古典的学習理論的な尺度が, トランスダクティブ・セッティングにおけるグラフニューラルネットワークの一般化を十分に説明できることを示す。
特に,ノード分類問題に対するグラフ畳み込みネットワークの一般化特性を解析することにより,トランスダクティブ推論の文脈におけるニューラルネットワークの性能の厳密な解析を行う。
VC次元は、この設定において自明な一般化誤差境界をもたらすが、帰納的ラデマッハ複雑性は確率ブロックモデルに対するグラフ畳み込みネットワークの一般化特性を説明することができることを示す。
さらに,トランスダクティブラデマッハ複雑性に基づく一般化誤差境界を用いて,グラフ畳み込みとネットワークアーキテクチャがより小さな一般化誤差を達成する上で果たす役割を実証し,グラフ構造が学習にいつ役立つのかを考察する。
本研究の成果は,ニューラルネットワークの一般化を学習理論的尺度で研究することへの関心を再考するものである。
関連論文リスト
- Feature Contamination: Neural Networks Learn Uncorrelated Features and Fail to Generalize [5.642322814965062]
分散シフトの下で一般化される学習表現は、堅牢な機械学習モデルを構築する上で重要である。
ニューラルネットワークを教師ネットワークから得られる表現に明示的に適合させることさえ、学生ネットワークの一般化には不十分であることを示す。
論文 参考訳(メタデータ) (2024-06-05T15:04:27Z) - Generalization Error of Graph Neural Networks in the Mean-field Regime [10.35214360391282]
グラフ畳み込みニューラルネットワークとメッセージパッシンググラフニューラルネットワークという,広く利用されている2種類のグラフニューラルネットワークについて検討する。
我々の新しいアプローチは、これらのグラフニューラルネットワークの一般化誤差を評価する平均場内上限を導出することである。
論文 参考訳(メタデータ) (2024-02-10T19:12:31Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - On the Expressiveness and Generalization of Hypergraph Neural Networks [77.65788763444877]
この拡張抽象化はハイパーグラフニューラルネットワーク(HyperGNN)の表現性、学習、および(構造的)一般化を分析するためのフレームワークを記述する。
具体的には、HyperGNNが有限データセットからどのように学習し、任意の入力サイズのグラフ推論問題に構造的に一般化するかに焦点を当てる。
論文 参考訳(メタデータ) (2023-03-09T18:42:18Z) - How You Start Matters for Generalization [26.74340246715699]
ニューラルネットワークの一般化は、その初期化に強く結びついていることが示される。
議論を呼んでいるフラットミニマ予想に反論する。
論文 参考訳(メタデータ) (2022-06-17T05:30:56Z) - Intrinsic Dimension, Persistent Homology and Generalization in Neural
Networks [19.99615698375829]
一般化誤差は 'peristent homology dimension' (PHD) という概念で等価に有界であることを示す。
我々は,現代のディープニューラルネットワークの規模でPHDを推定する効率的なアルゴリズムを開発した。
実験の結果,提案手法はネットワークの固有次元を様々な設定で効率的に計算できることがわかった。
論文 参考訳(メタデータ) (2021-11-25T17:06:15Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Generalization bound of globally optimal non-convex neural network
training: Transportation map estimation by infinite dimensional Langevin
dynamics [50.83356836818667]
本稿では,ディープラーニングの最適化を一般化誤差と関連づけて解析する理論フレームワークを提案する。
ニューラルネットワーク最適化分析のための平均場理論やニューラル・タンジェント・カーネル理論のような既存のフレームワークは、そのグローバル収束を示すために、ネットワークの無限幅の限界を取る必要がある。
論文 参考訳(メタデータ) (2020-07-11T18:19:50Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。