論文の概要: Transferability Properties of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2112.04629v4
- Date: Mon, 7 Aug 2023 21:06:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 18:03:27.877575
- Title: Transferability Properties of Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの転送性特性
- Authors: Luana Ruiz, Luiz F. O. Chamon, Alejandro Ribeiro
- Abstract要約: グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
- 参考スコア(独自算出の注目度): 125.71771240180654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are composed of layers consisting of graph
convolutions and pointwise nonlinearities. Due to their invariance and
stability properties, GNNs are provably successful at learning representations
from data supported on moderate-scale graphs. However, they are difficult to
learn on large-scale graphs. In this paper, we study the problem of training
GNNs on graphs of moderate size and transferring them to large-scale graphs. We
use graph limits called graphons to define limit objects for graph filters and
GNNs -- graphon filters and graphon neural networks (WNNs) -- which we
interpret as generative models for graph filters and GNNs. We then show that
graphon filters and WNNs can be approximated by graph filters and GNNs sampled
from them on weighted and stochastic graphs. Because the error of these
approximations can be upper bounded, by a triangle inequality argument we can
further bound the error of transferring a graph filter or a GNN across graphs.
Our results show that (i) the transference error decreases with the graph size,
and (ii) that graph filters have a transferability-discriminability tradeoff
that in GNNs is alleviated by the scattering behavior of the nonlinearity.
These findings are demonstrated empirically in a movie recommendation problem
and in a decentralized control task.
- Abstract(参考訳): グラフニューラルネットワーク(gnn)は、グラフ畳み込みとポイントワイズ非線形からなる層で構成される。
それらの不変性と安定性のため、GNNは中規模グラフでサポートされているデータから表現を学習することに成功している。
しかし,大規模グラフでは学習が困難である。
本稿では,中程度のグラフ上でGNNを訓練し,それらを大規模グラフに転送する問題について検討する。
グラフフィルタとGNNのリミットオブジェクト(グラフフィルタとグラフニューラルネットワーク(WNN))を定義するために、グラモンと呼ばれるグラフ制限を使用し、グラフフィルタとGNNの生成モデルとして解釈する。
次に、重み付きおよび確率グラフ上で、グラフフィルタとGNNによってグラフフィルタとWNNを近似できることを示す。
これらの近似の誤差は上界化できるので、三角形の不等式からグラフフィルターやGNNをグラフ上で転送する誤差をさらに制限することができる。
私たちの結果は
(i)転送誤差はグラフサイズによって減少し、
(ii) グラフフィルタは、gnnにおいて非線形性の散乱挙動によって緩和される転送可能性・識別可能性トレードオフを持つ。
これらの結果は,映画のレコメンデーション問題や分散制御タスクにおいて実証的に実証される。
関連論文リスト
- Graph Neural Networks Use Graphs When They Shouldn't [29.686091109844746]
グラフニューラルネットワーク(GNN)は,グラフデータの学習において主流のアプローチである。
我々は、GNNが実際に与えられたグラフ構造に過度に適合する傾向があることを示す。
論文 参考訳(メタデータ) (2023-09-08T13:59:18Z) - Transferability of Graph Neural Networks using Graphon and Sampling Theories [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなドメインでグラフベースの情報を処理するための強力なツールとなっている。
GNNの望ましい特性は転送可能性であり、トレーニングされたネットワークは、その正確性を再トレーニングすることなく、異なるグラフから情報を交換することができる。
我々は,2層グラファイトニューラルネットワーク(WNN)アーキテクチャを明示することにより,GNNへのグラファイトの適用に寄与する。
論文 参考訳(メタデータ) (2023-07-25T02:11:41Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。