論文の概要: Generalization bounds for graph convolutional neural networks via
Rademacher complexity
- arxiv url: http://arxiv.org/abs/2102.10234v1
- Date: Sat, 20 Feb 2021 02:51:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 15:15:52.821734
- Title: Generalization bounds for graph convolutional neural networks via
Rademacher complexity
- Title(参考訳): Rademacher複雑性によるグラフ畳み込みニューラルネットワークの一般化境界
- Authors: Shaogao Lv
- Abstract要約: 単一の隠れ層を有するグラフ畳み込みネットワーク(GCN)のサンプル複雑性について検討する。
これらの複雑性の導出はグラフ畳み込みフィルタの最大の固有値とグラフの次数分布に明示的に依存する。
- 参考スコア(独自算出の注目度): 0.3553493344868413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims at studying the sample complexity of graph convolutional
networks (GCNs), by providing tight upper bounds of Rademacher complexity for
GCN models with a single hidden layer. Under regularity conditions, theses
derived complexity bounds explicitly depend on the largest eigenvalue of graph
convolution filter and the degree distribution of the graph. Again, we provide
a lower bound of Rademacher complexity for GCNs to show optimality of our
derived upper bounds. Taking two commonly used examples as representatives, we
discuss the implications of our results in designing graph convolution filters
an graph distribution.
- Abstract(参考訳): 本論文では,単一の隠れ層を持つGCNモデルに対して,Rademacherの複雑性の高い上限を提供することにより,グラフ畳み込みネットワーク(GCN)のサンプル複雑性を検討する。
正則性条件下では、これらの複雑性境界はグラフ畳み込みフィルタの最大固有値とグラフの次数分布に明示的に依存する。
繰り返しますが、GCNが派生した上界の最適性を示すために、Rademacherの複雑さの低い境界を提供します。
代表的な例として,グラフ畳み込みフィルタをグラフ分布として設計する際の結果の影響について考察する。
関連論文リスト
- Generalization of Geometric Graph Neural Networks [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
最も重要な観察は、前の結果のようにグラフのサイズに制限されるのではなく、1つの大きなグラフで一般化能力を実現することができることである。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Generalization Bounds for Message Passing Networks on Mixture of Graphons [21.457225542391267]
メッセージパッシングニューラルネットワーク(MPNN)の一般化機能について検討する。
正規化和アグリゲーションと平均アグリゲーションを持つMPNNに対して、特に一般化バウンダリを導出する。
以上の結果から,MPNNはトレーニングセットのサイズよりも複雑度が高いため,依然として効果的に一般化可能であることが示唆された。
論文 参考訳(メタデータ) (2024-04-04T14:26:47Z) - Complex-Value Spatio-temporal Graph Convolutional Neural Networks and
its Applications to Electric Power Systems AI [24.914412344973996]
グラフ畳み込みニューラルネットワーク(GCN)を複素領域に一般化する。
複素数値GCNは、基礎となるグラフサポートの摂動に対して安定であることを示す。
我々は複雑なGCNを電力グリッド状態予測、電力グリッド攻撃検出、局所化に適用する。
論文 参考訳(メタデータ) (2022-08-17T18:56:48Z) - Graph Condensation via Receptive Field Distribution Matching [61.71711656856704]
本稿では,元のグラフを表す小さなグラフの作成に焦点をあてる。
我々は、元のグラフを受容体の分布とみなし、受容体が同様の分布を持つ小さなグラフを合成することを目的としている。
論文 参考訳(メタデータ) (2022-06-28T02:10:05Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Overcoming Oversmoothness in Graph Convolutional Networks via Hybrid
Scattering Networks [11.857894213975644]
本稿では,従来のGCNフィルタと幾何散乱変換を用いて定義された帯域通過フィルタを組み合わせたハイブリッドグラフニューラルネットワーク(GNN)フレームワークを提案する。
理論的には, グラフからの構造情報を活用するために散乱フィルタの相補的な利点が確立され, 実験では様々な学習課題における手法の利点が示された。
論文 参考訳(メタデータ) (2022-01-22T00:47:41Z) - A PAC-Bayesian Approach to Generalization Bounds for Graph Neural
Networks [99.46182575751271]
グラフニューラルネットワーク(GNN)の2つの一次クラスに対する一般化境界を導出する。
その結果,重みの最大ノード次数とスペクトルノルムが両モデルの一般化境界を規定することが明らかとなった。
論文 参考訳(メタデータ) (2020-12-14T16:41:23Z) - Convergence and Stability of Graph Convolutional Networks on Large
Random Graphs [22.387735135790706]
グラフ畳み込みネットワーク(GCN)の特性をランダムグラフの標準モデル上で解析することによって検討する。
まず,GCNの連続的な収束について検討し,ノード数の増加について検討する。
ランダムグラフモデルの小さな変形に対するGCNの安定性を解析する。
論文 参考訳(メタデータ) (2020-06-02T18:36:19Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。