論文の概要: Superiority of GNN over NN in generalizing bandlimited functions
- arxiv url: http://arxiv.org/abs/2206.05904v7
- Date: Wed, 28 Jun 2023 21:18:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 17:02:16.091274
- Title: Superiority of GNN over NN in generalizing bandlimited functions
- Title(参考訳): 帯域制限関数の一般化におけるNN上のGNNの優位性
- Authors: A. Martina Neuman, Rongrong Wang and Yuying Xie
- Abstract要約: グラフ情報の統合機能を備えたグラフニューラルネットワーク(GNN)は,データ解析に広く利用されている。
本稿では,その分類課題に対するGNNの表現力について検討する。
その結果、GNNアーキテクチャを用いた帯域制限関数を$epsilon$-approximateするために必要な重みの数は、よく知られたものよりもはるかに少ないことがわかった。
- 参考スコア(独自算出の注目度): 7.139581943976248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Network (GNN) with its ability to integrate graph information
has been widely used for data analyses. However, the expressive power of GNN
has only been studied for graph-level tasks but not for node-level tasks, such
as node classification, where one tries to interpolate missing nodal labels
from the observed ones. In this paper, we study the expressive power of GNN for
the said classification task, which is in essence a function interpolation
problem. Explicitly, we derive the number of weights and layers needed for a
GNN to interpolate a band-limited function in $\mathbb{R}^d$. Our result shows
that, the number of weights needed to $\epsilon$-approximate a bandlimited
function using the GNN architecture is much fewer than the best known one using
a fully connected neural network (NN) - in particular, one only needs $O((\log
\epsilon^{-1})^{d})$ weights using a GNN trained by $O((\log
\epsilon^{-1})^{d})$ samples to $\epsilon$-approximate a discretized
bandlimited signal in $\mathbb{R}^d$. The result is obtained by drawing a
connection between the GNN structure and the classical sampling theorems,
making our work the first attempt in this direction.
- Abstract(参考訳): グラフ情報の統合機能を備えたグラフニューラルネットワーク(GNN)は,データ解析に広く利用されている。
しかし、GNNの表現力はグラフレベルのタスクにのみ研究されているが、ノード分類のようなノードレベルのタスクでは研究されていない。
本稿では, 関数補間問題である, 上記の分類課題に対するgnnの表現力について検討する。
具体的には、GNNが帯域制限関数を$\mathbb{R}^d$で補間するのに必要な重みと層の数を求める。
以上の結果から,GNNアーキテクチャを用いた帯域制限関数の重み付けは,完全連結ニューラルネットワーク(NN)を用いた一般的な帯域制限関数よりもはるかに少ないことが分かる。特に,$O((\log \epsilon^{-1})^{d})$重み付けは,$O((\log \epsilon^{-1})^{d})$サンプルから$\epsilon$-approximateへ,$\mathbb{R}^d$で離散化された帯域制限信号を生成する。
この結果は、gnn構造と古典的なサンプリング定理との関係を描き、我々の研究がこの方向への最初の試みとなるようにすることで得られる。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Graph Neural Networks Do Not Always Oversmooth [46.57665708260211]
グラフ畳み込みネットワーク (GCN) における過剰スムーシングを, 無限に多くの隠れた特徴の極限におけるガウス過程 (GP) の等価性を用いて検討する。
ネットワークの初期重みが十分に大きな場合、GCNは過度に過度に変化せず、ノード特徴は大きな深さでも情報的のままである。
論文 参考訳(メタデータ) (2024-06-04T12:47:13Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - On the approximation capability of GNNs in node
classification/regression tasks [4.141514895639094]
グラフニューラルネットワーク(GNN)は、グラフ処理のための幅広い種類の接続モデルである。
GNNはノード分類/回帰タスクの確率の普遍近似であることを示す。
論文 参考訳(メタデータ) (2021-06-16T17:46:51Z) - Edgeless-GNN: Unsupervised Inductive Edgeless Network Embedding [7.391641422048645]
ネットワークを新たに入力したユーザなど,エッジレスノードを埋め込む問題について検討する。
我々は,非教師付き帰納学習により,エッジレスノードに対してもノード埋め込みを生成可能な新しいフレームワークであるEdgeless-GNNを提案する。
論文 参考訳(メタデータ) (2021-04-12T06:37:31Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。