論文の概要: Transferability Properties of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2112.04629v1
- Date: Thu, 9 Dec 2021 00:08:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 15:51:12.531180
- Title: Transferability Properties of Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの転送性特性
- Authors: Luana Ruiz, Luiz F. O. Chamon, Alejandro Ribeiro
- Abstract要約: グラフニューラルネットワーク(GNN)は、ネットワークデータから表現を学習することに成功している。
グラフ間でGNNを転送する能力について検討する。
- 参考スコア(独自算出の注目度): 127.60467561785786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are deep convolutional architectures consisting
of layers composed by graph convolutions and pointwise nonlinearities. Due to
their invariance and stability properties, GNNs are provably successful at
learning representations from network data. However, training them requires
matrix computations which can be expensive for large graphs. To address this
limitation, we investigate the ability of GNNs to be transferred across graphs.
We consider graphons, which are both graph limits and generative models for
weighted and stochastic graphs, to define limit objects of graph convolutions
and GNNs -- graphon convolutions and graphon neural networks (WNNs) -- which we
use as generative models for graph convolutions and GNNs. We show that these
graphon filters and WNNs can be approximated by graph filters and GNNs sampled
from them on weighted and stochastic graphs. Using these results, we then
derive error bounds for transferring graph filters and GNNs across such graphs.
These bounds show that transferability increases with the graph size, and
reveal a tradeoff between transferability and spectral discriminability which
in GNNs is alleviated by the pointwise nonlinearities. These findings are
further verified empirically in numerical experiments in movie recommendation
and decentralized robot control.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ畳み込みとポイントワイド非線形性からなる層からなる深層畳み込みアーキテクチャである。
その不変性と安定性のため、GNNはネットワークデータから表現を学習することに成功している。
しかし、トレーニングには行列計算が必要であり、大きなグラフには高価である。
この制限に対処するため、GNNをグラフ間で転送する能力について検討する。
グラフ畳み込みとgnn(graphon convolutions and graphon neural networks,wnns)の極限オブジェクトを定義するために、重み付きグラフと確率的グラフのグラフ極限と生成モデルの両方であるgraphonを、グラフ畳み込みとgnnの生成モデルとして使用する。
これらのグラフフィルタとWNNは、重み付き確率グラフ上のグラフフィルタとGNNによって近似可能であることを示す。
これらの結果を用いて、グラフフィルタとGNNをそのようなグラフ間で転送する際の誤差境界を導出する。
これらの境界は、転送可能性はグラフサイズとともに増加し、GNNにおける転送可能性とスペクトル識別性の間のトレードオフがポイントワイドな非線形性によって緩和されることを示している。
これらの結果は,映画のレコメンデーションと分散ロボット制御における数値実験において,さらに実証的に検証されている。
関連論文リスト
- Graph Neural Networks Use Graphs When They Shouldn't [29.686091109844746]
グラフニューラルネットワーク(GNN)は,グラフデータの学習において主流のアプローチである。
我々は、GNNが実際に与えられたグラフ構造に過度に適合する傾向があることを示す。
論文 参考訳(メタデータ) (2023-09-08T13:59:18Z) - Transferability of Graph Neural Networks using Graphon and Sampling Theories [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなドメインでグラフベースの情報を処理するための強力なツールとなっている。
GNNの望ましい特性は転送可能性であり、トレーニングされたネットワークは、その正確性を再トレーニングすることなく、異なるグラフから情報を交換することができる。
我々は,2層グラファイトニューラルネットワーク(WNN)アーキテクチャを明示することにより,GNNへのグラファイトの適用に寄与する。
論文 参考訳(メタデータ) (2023-07-25T02:11:41Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。