論文の概要: Barron Space for Graph Convolution Neural Networks
- arxiv url: http://arxiv.org/abs/2311.02838v1
- Date: Mon, 6 Nov 2023 02:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 15:38:54.942392
- Title: Barron Space for Graph Convolution Neural Networks
- Title(参考訳): グラフ畳み込みニューラルネットワークのためのバロン空間
- Authors: Seok-Young Chung and Qiyu Sun
- Abstract要約: グラフ畳み込みニューラルネットワーク(GCNN)はグラフドメインで動作する。
本稿では,グラフ信号のコンパクト領域上に関数のバロン空間を導入する。
- 参考スコア(独自算出の注目度): 4.980329703241598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional neural network (GCNN) operates on graph domain and it has
achieved a superior performance to accomplish a wide range of tasks. In this
paper, we introduce a Barron space of functions on a compact domain of graph
signals. We prove that the proposed Barron space is a reproducing kernel Banach
space, it can be decomposed into the union of a family of reproducing kernel
Hilbert spaces with neuron kernels, and it could be dense in the space of
continuous functions on the domain. Approximation property is one of the main
principles to design neural networks. In this paper, we show that outputs of
GCNNs are contained in the Barron space and functions in the Barron space can
be well approximated by outputs of some GCNNs in the integrated square and
uniform measurements. We also estimate the Rademacher complexity of functions
with bounded Barron norm and conclude that functions in the Barron space could
be learnt from their random samples efficiently.
- Abstract(参考訳): グラフ畳み込みニューラルネットワーク(GCNN)は、グラフドメイン上で動作し、幅広いタスクを達成するために優れたパフォーマンスを実現している。
本稿では,グラフ信号のコンパクト領域上の関数のバロン空間について述べる。
提案したバロン空間が再生核バナッハ空間であることを証明し、再生核ヒルベルト空間の族とニューロン核との結合に分解することができ、領域上の連続函数の空間において密接であることを示す。
近似特性は、ニューラルネットワークを設計する主な原則の1つである。
本稿では,gcnn の出力をバロン空間に含み,バロン空間の関数は積分正方形および一様測定におけるいくつかの gcnn の出力によってよく近似できることを示す。
また、有界なバロンノルムを持つ関数のラデマシェ複雑性を推定し、バロン空間内の関数をランダムなサンプルから効率的に学習できると結論付ける。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Multi-layer random features and the approximation power of neural networks [4.178980693837599]
再現カーネルヒルベルト空間はアーキテクチャによって近似できる関数のみを含むことを証明している。
NNGPの積分作用素の固有値が$k-n-frac23$よりも遅く、$k$が固有値の順序である場合、我々の定理はバロンの定理よりも簡潔なニューラルネットワーク近似を保証する。
論文 参考訳(メタデータ) (2024-04-26T14:57:56Z) - Global universal approximation of functional input maps on weighted
spaces [3.8059763597999012]
無限次元の重み付き空間上で定義されたいわゆる関数型入力ニューラルネットワークを導入し、無限次元の出力空間にも値を導入する。
連続函数に対する重み付き空間上の大域的普遍近似結果が、コンパクト集合上の通常の近似を超えていることを証明する。
署名核のヒルベルト核空間の再現は、ある種のガウス過程のキャメロン・マルティン空間であることを強調する。
論文 参考訳(メタデータ) (2023-06-05T23:06:32Z) - Duality for Neural Networks through Reproducing Kernel Banach Spaces [1.3750624267664155]
再生カーネルバナッハ空間 (RKBS) は RKHS 空間の無限結合として理解可能であることを示す。
RKBS はヒルベルト空間ではないため、独自の双対空間ではない。しかし、その双対空間は再び、データとパラメータの役割が交換される RKBS であることを示す。
これにより、ニューラルネットワークのサドル点問題を構築することができ、原始双対最適化の全分野で使用できる。
論文 参考訳(メタデータ) (2022-11-09T16:52:39Z) - Graph Neural Network Bandits [89.31889875864599]
グラフ構造データ上で定義された報酬関数を用いた帯域最適化問題を考察する。
この設定の主な課題は、大きなドメインへのスケーリングと、多くのノードを持つグラフへのスケーリングである。
グラフニューラルネットワーク(GNN)を用いて報酬関数を推定できることを示す。
論文 参考訳(メタデータ) (2022-07-13T18:12:36Z) - Superiority of GNN over NN in generalizing bandlimited functions [6.3151583550712065]
グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションにまたがってグラフベースの情報を処理するための強力なリソースとして登場した。
本研究では,これらの分類におけるGNNの習熟度について検討する。
以上の結果から,GNNを用いた帯域制限関数を$varepsilon$-errorマージン内で一般化する上で,高い効率性を示した。
論文 参考訳(メタデータ) (2022-06-13T05:15:12Z) - Generative Adversarial Neural Operators [59.21759531471597]
本稿では,無限次元関数空間上の確率学習のための生成モデルであるGANOを提案する。
GANOは、ジェネレータニューラル演算子と識別器ニューラル関数の2つの主要成分から構成される。
入力関数と出力関数が共に GRF からのサンプルである場合のGANO を実験的に検討し、その性能を有限次元の GAN と比較する。
論文 参考訳(メタデータ) (2022-05-06T05:12:22Z) - Neighbor2Seq: Deep Learning on Massive Graphs by Transforming Neighbors
to Sequences [55.329402218608365]
本研究では,各ノードの階層的近傍をシーケンスに変換するためにNeighbor2Seqを提案する。
1100万以上のノードと160億のエッジを持つ大規模グラフ上で,本手法の評価を行った。
その結果,提案手法は大規模グラフに対してスケーラブルであり,大規模グラフと中規模グラフにまたがる優れた性能を実現する。
論文 参考訳(メタデータ) (2022-02-07T16:38:36Z) - Representation formulas and pointwise properties for Barron functions [8.160343645537106]
ReLU活性化を伴う無限広2層ニューラルネットワークの自然関数空間(バロン空間)について検討する。
特異集合がフラクタルあるいは湾曲した関数は、有限経路ノルムを持つ無限に広い2層ネットワークでは表現できないことを示す。
この結果は、2層ニューラルネットワークが一般的に信じられているよりも多種多様な機能を近似できる可能性を示唆している。
論文 参考訳(メタデータ) (2020-06-10T17:55:31Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。