論文の概要: Barron Space for Graph Convolution Neural Networks
- arxiv url: http://arxiv.org/abs/2311.02838v1
- Date: Mon, 6 Nov 2023 02:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 15:38:54.942392
- Title: Barron Space for Graph Convolution Neural Networks
- Title(参考訳): グラフ畳み込みニューラルネットワークのためのバロン空間
- Authors: Seok-Young Chung and Qiyu Sun
- Abstract要約: グラフ畳み込みニューラルネットワーク(GCNN)はグラフドメインで動作する。
本稿では,グラフ信号のコンパクト領域上に関数のバロン空間を導入する。
- 参考スコア(独自算出の注目度): 4.980329703241598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional neural network (GCNN) operates on graph domain and it has
achieved a superior performance to accomplish a wide range of tasks. In this
paper, we introduce a Barron space of functions on a compact domain of graph
signals. We prove that the proposed Barron space is a reproducing kernel Banach
space, it can be decomposed into the union of a family of reproducing kernel
Hilbert spaces with neuron kernels, and it could be dense in the space of
continuous functions on the domain. Approximation property is one of the main
principles to design neural networks. In this paper, we show that outputs of
GCNNs are contained in the Barron space and functions in the Barron space can
be well approximated by outputs of some GCNNs in the integrated square and
uniform measurements. We also estimate the Rademacher complexity of functions
with bounded Barron norm and conclude that functions in the Barron space could
be learnt from their random samples efficiently.
- Abstract(参考訳): グラフ畳み込みニューラルネットワーク(GCNN)は、グラフドメイン上で動作し、幅広いタスクを達成するために優れたパフォーマンスを実現している。
本稿では,グラフ信号のコンパクト領域上の関数のバロン空間について述べる。
提案したバロン空間が再生核バナッハ空間であることを証明し、再生核ヒルベルト空間の族とニューロン核との結合に分解することができ、領域上の連続函数の空間において密接であることを示す。
近似特性は、ニューラルネットワークを設計する主な原則の1つである。
本稿では,gcnn の出力をバロン空間に含み,バロン空間の関数は積分正方形および一様測定におけるいくつかの gcnn の出力によってよく近似できることを示す。
また、有界なバロンノルムを持つ関数のラデマシェ複雑性を推定し、バロン空間内の関数をランダムなサンプルから効率的に学習できると結論付ける。
関連論文リスト
- Space-Time Approximation with Shallow Neural Networks in Fourier
Lebesgue spaces [1.74048653626208]
ボヒナー・ソボレフ空間における異方性重み付きフーリエ・ルベーグ空間の包含について検討する。
異方性重み付きフーリエ・ルベーグ空間からの関数の近似率とボヒナー・ソボレフノルムのSNNによる近似の有界性を確立する。
論文 参考訳(メタデータ) (2023-12-13T19:02:27Z) - Global universal approximation of functional input maps on weighted
spaces [3.8059763597999012]
無限次元の重み付き空間上で定義されたいわゆる関数型入力ニューラルネットワークを導入し、無限次元の出力空間にも値を導入する。
連続函数に対する重み付き空間上の大域的普遍近似結果が、コンパクト集合上の通常の近似を超えていることを証明する。
署名核のヒルベルト核空間の再現は、ある種のガウス過程のキャメロン・マルティン空間であることを強調する。
論文 参考訳(メタデータ) (2023-06-05T23:06:32Z) - Duality for Neural Networks through Reproducing Kernel Banach Spaces [1.3750624267664155]
再生カーネルバナッハ空間 (RKBS) は RKHS 空間の無限結合として理解可能であることを示す。
RKBS はヒルベルト空間ではないため、独自の双対空間ではない。しかし、その双対空間は再び、データとパラメータの役割が交換される RKBS であることを示す。
これにより、ニューラルネットワークのサドル点問題を構築することができ、原始双対最適化の全分野で使用できる。
論文 参考訳(メタデータ) (2022-11-09T16:52:39Z) - Graph Neural Network Bandits [89.31889875864599]
グラフ構造データ上で定義された報酬関数を用いた帯域最適化問題を考察する。
この設定の主な課題は、大きなドメインへのスケーリングと、多くのノードを持つグラフへのスケーリングである。
グラフニューラルネットワーク(GNN)を用いて報酬関数を推定できることを示す。
論文 参考訳(メタデータ) (2022-07-13T18:12:36Z) - Superiority of GNN over NN in generalizing bandlimited functions [6.3151583550712065]
グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションにまたがってグラフベースの情報を処理するための強力なリソースとして登場した。
本研究では,これらの分類におけるGNNの習熟度について検討する。
以上の結果から,GNNを用いた帯域制限関数を$varepsilon$-errorマージン内で一般化する上で,高い効率性を示した。
論文 参考訳(メタデータ) (2022-06-13T05:15:12Z) - Generative Adversarial Neural Operators [59.21759531471597]
本稿では,無限次元関数空間上の確率学習のための生成モデルであるGANOを提案する。
GANOは、ジェネレータニューラル演算子と識別器ニューラル関数の2つの主要成分から構成される。
入力関数と出力関数が共に GRF からのサンプルである場合のGANO を実験的に検討し、その性能を有限次元の GAN と比較する。
論文 参考訳(メタデータ) (2022-05-06T05:12:22Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - Neighbor2Seq: Deep Learning on Massive Graphs by Transforming Neighbors
to Sequences [55.329402218608365]
本研究では,各ノードの階層的近傍をシーケンスに変換するためにNeighbor2Seqを提案する。
1100万以上のノードと160億のエッジを持つ大規模グラフ上で,本手法の評価を行った。
その結果,提案手法は大規模グラフに対してスケーラブルであり,大規模グラフと中規模グラフにまたがる優れた性能を実現する。
論文 参考訳(メタデータ) (2022-02-07T16:38:36Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z) - Representation formulas and pointwise properties for Barron functions [8.160343645537106]
ReLU活性化を伴う無限広2層ニューラルネットワークの自然関数空間(バロン空間)について検討する。
特異集合がフラクタルあるいは湾曲した関数は、有限経路ノルムを持つ無限に広い2層ネットワークでは表現できないことを示す。
この結果は、2層ニューラルネットワークが一般的に信じられているよりも多種多様な機能を近似できる可能性を示唆している。
論文 参考訳(メタデータ) (2020-06-10T17:55:31Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。