論文の概要: Superiority of GNN over NN in generalizing bandlimited functions
- arxiv url: http://arxiv.org/abs/2206.05904v8
- Date: Sun, 1 Oct 2023 00:50:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 21:17:37.223302
- Title: Superiority of GNN over NN in generalizing bandlimited functions
- Title(参考訳): 帯域制限関数の一般化におけるNN上のGNNの優位性
- Authors: A. Martina Neuman, Rongrong Wang and Yuying Xie
- Abstract要約: グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションにまたがってグラフベースの情報を処理するための強力なリソースとして登場した。
本研究では,これらの分類におけるGNNの習熟度について検討する。
以上の結果から,GNNを用いた帯域制限関数を$varepsilon$-errorマージン内で一般化する上で,高い効率性を示した。
- 参考スコア(独自算出の注目度): 6.3151583550712065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as formidable resources for
processing graph-based information across diverse applications. While the
expressive power of GNNs has traditionally been examined in the context of
graph-level tasks, their potential for node-level tasks, such as node
classification, where the goal is to interpolate missing node labels from the
observed ones, remains relatively unexplored. In this study, we investigate the
proficiency of GNNs for such classifications, which can also be cast as a
function interpolation problem. Explicitly, we focus on ascertaining the
optimal configuration of weights and layers required for a GNN to successfully
interpolate a band-limited function over Euclidean cubes. Our findings
highlight a pronounced efficiency in utilizing GNNs to generalize a bandlimited
function within an $\varepsilon$-error margin. Remarkably, achieving this task
necessitates only $O_d((\log\varepsilon^{-1})^d)$ weights and
$O_d((\log\varepsilon^{-1})^d)$ training samples. We explore how this criterion
stacks up against the explicit constructions of currently available Neural
Networks (NNs) designed for similar tasks. Significantly, our result is
obtained by drawing an innovative connection between the GNN structures and
classical sampling theorems. In essence, our pioneering work marks a meaningful
contribution to the research domain, advancing our understanding of the
practical GNN applications.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションにまたがってグラフベースの情報を処理するための強力なリソースとして登場した。
gnnの表現力は伝統的にグラフレベルのタスクの文脈で検討されてきたが、ノード分類のようなノードレベルのタスクのポテンシャルは、観測されたノードのラベルを補間することにある。
本研究では,機能補間問題としても適用可能な分類におけるGNNの習熟度について検討する。
具体的には,GNNがユークリッド立方体上の帯域制限関数を補間するために必要な重みと層を最適に設定することに注力する。
以上の結果から,GNNを用いた帯域制限関数を$\varepsilon$-errorマージン内で一般化する上で,有効性が明らかとなった。
驚くべきことに、このタスクを達成するには、$o_d((\log\varepsilon^{-1})^d)$ weightsと$o_d((\log\varepsilon^{-1})^d)$ training samplesのみが必要である。
私たちは、この基準が、同様のタスク用に設計された現在利用可能なニューラルネットワーク(nns)の明示的な構成に対してどのように積み重ねられるかを調べます。
以上より,gnn構造と古典的サンプリング定理との革新的な関係を明らかにした。
基本的に、我々の先駆的な研究は研究領域に有意義な貢献をしており、実用的なGNNアプリケーションに対する理解を深めている。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Graph Neural Networks Do Not Always Oversmooth [46.57665708260211]
グラフ畳み込みネットワーク (GCN) における過剰スムーシングを, 無限に多くの隠れた特徴の極限におけるガウス過程 (GP) の等価性を用いて検討する。
ネットワークの初期重みが十分に大きな場合、GCNは過度に過度に変化せず、ノード特徴は大きな深さでも情報的のままである。
論文 参考訳(メタデータ) (2024-06-04T12:47:13Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - On the approximation capability of GNNs in node
classification/regression tasks [4.141514895639094]
グラフニューラルネットワーク(GNN)は、グラフ処理のための幅広い種類の接続モデルである。
GNNはノード分類/回帰タスクの確率の普遍近似であることを示す。
論文 参考訳(メタデータ) (2021-06-16T17:46:51Z) - Edgeless-GNN: Unsupervised Inductive Edgeless Network Embedding [7.391641422048645]
ネットワークを新たに入力したユーザなど,エッジレスノードを埋め込む問題について検討する。
我々は,非教師付き帰納学習により,エッジレスノードに対してもノード埋め込みを生成可能な新しいフレームワークであるEdgeless-GNNを提案する。
論文 参考訳(メタデータ) (2021-04-12T06:37:31Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。