論文の概要: Nonlinear State-Space Generalizations of Graph Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2010.14585v2
- Date: Thu, 11 Feb 2021 19:54:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 13:09:04.161890
- Title: Nonlinear State-Space Generalizations of Graph Convolutional Neural
Networks
- Title(参考訳): グラフ畳み込みニューラルネットワークの非線形状態空間一般化
- Authors: Luana Ruiz, Fernando Gama, Alejandro Ribeiro, Elvin Isufi
- Abstract要約: グラフ畳み込みニューラルネットワーク(GCNN)は、線形グラフ畳み込みを非線形にネストすることで、ネットワークデータから構成表現を学習する。
本稿では,GCNNを状態空間の観点からアプローチし,グラフ畳み込みモジュールが最小値線形状態空間モデルであることを明らかにする。
この状態更新は、非パラメトリックであり、グラフスペクトルによって爆発または消滅する可能性があるため、問題となる可能性がある。
本稿では,非線形な状態空間パラメトリック方式でノード特徴を階層内に集約し,よりよいトレードオフを実現するという,新しい結節集合規則を提案する。
- 参考スコア(独自算出の注目度): 172.18295279061607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional neural networks (GCNNs) learn compositional
representations from network data by nesting linear graph convolutions into
nonlinearities. In this work, we approach GCNNs from a state-space perspective
revealing that the graph convolutional module is a minimalistic linear
state-space model, in which the state update matrix is the graph shift
operator. We show that this state update may be problematic because it is
nonparametric, and depending on the graph spectrum it may explode or vanish.
Therefore, the GCNN has to trade its degrees of freedom between extracting
features from data and handling these instabilities. To improve such trade-off,
we propose a novel family of nodal aggregation rules that aggregate node
features within a layer in a nonlinear state-space parametric fashion allowing
for a better trade-off. We develop two architectures within this family
inspired by the recurrence with and without nodal gating mechanisms. The
proposed solutions generalize the GCNN and provide an additional handle to
control the state update and learn from the data. Numerical results on source
localization and authorship attribution show the superiority of the nonlinear
state-space generalization models over the baseline GCNN.
- Abstract(参考訳): グラフ畳み込みニューラルネットワーク(GCNN)は、線形グラフ畳み込みを非線形にネストすることで、ネットワークデータから構成表現を学習する。
本稿では,GCNNを状態空間の観点からアプローチし,グラフ畳み込みモジュールが最小値線形状態空間モデルであり,状態更新行列がグラフシフト演算子であることを示す。
この状態更新は非パラメトリックであり、グラフのスペクトルによって爆発または消滅する可能性があるため、問題となる可能性がある。
したがって、gcnnは、データから特徴を抽出することとこれらの不安定性を処理することの間の自由度をトレードオフしなければならない。
このようなトレードオフを改善するために,非線形な状態空間パラメトリック方式で層内のノード特徴を集約し,より優れたトレードオフを実現する,新たな結節集約規則を提案する。
結節機構を伴わずに再発に触発された,本科の2つのアーキテクチャを発達させた。
提案したソリューションはGCNNを一般化し、状態の更新を管理してデータから学ぶための追加のハンドラを提供する。
ソースローカライゼーションとオーサシップ属性の数値結果は,ベースラインGCNNよりも非線形状態空間一般化モデルの優位性を示している。
関連論文リスト
- L^2GC:Lorentzian Linear Graph Convolutional Networks for Node Classification [12.69417276887153]
ローレンツ線形GCNの新しいフレームワークを提案する。
グラフノードの学習した特徴を双曲空間にマッピングする。
次に、ロレンツ線形特徴変換を行い、基礎となる木のようなデータ構造をキャプチャする。
論文 参考訳(メタデータ) (2024-03-10T02:16:13Z) - Implicit Graph Neural Diffusion Networks: Convergence, Generalization,
and Over-Smoothing [7.984586585987328]
Inlicit Graph Neural Networks (GNN)は、グラフ学習問題に対処する上で大きな成功を収めた。
パラメータ化グラフラプラシアン演算子に基づく暗黙グラフ拡散層を設計するための幾何学的枠組みを提案する。
ディリクレエネルギー最小化問題の固定点方程式として, 暗黙のGNN層がどう見えるかを示す。
論文 参考訳(メタデータ) (2023-08-07T05:22:33Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Understanding Non-linearity in Graph Neural Networks from the
Bayesian-Inference Perspective [33.01636846541052]
グラフニューラルネットワーク(GNN)は、グラフよりも多くの予測タスクにおいて優位性を示している。
ノード分類タスクにおけるGNNにおける非線形性の関数について検討する。
論文 参考訳(メタデータ) (2022-07-22T19:36:12Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - Stability of Graph Convolutional Neural Networks to Stochastic
Perturbations [122.12962842842349]
グラフ畳み込みニューラルネットワーク(GCNN)は、ネットワークデータから表現を学ぶ非線形処理ツールである。
現在の分析では決定論的摂動を考慮しているが、トポロジカルな変化がランダムである場合、関連する洞察を与えられない。
本稿では,リンク損失に起因する乱れグラフ摂動に対するGCNNの安定性について検討する。
論文 参考訳(メタデータ) (2021-06-19T16:25:28Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。