論文の概要: Stability of Aggregation Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2207.03678v1
- Date: Fri, 8 Jul 2022 03:54:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 10:42:38.641550
- Title: Stability of Aggregation Graph Neural Networks
- Title(参考訳): 集約グラフニューラルネットワークの安定性
- Authors: Alejandro Parada-Mayorga, Zhiyang Wang, Fernando Gama, and Alejandro
Ribeiro
- Abstract要約: グラフの摂動を考慮したアグリゲーショングラフニューラルネットワーク(Agg-GNN)の安定性特性について検討した。
安定性境界は各ノードに作用するCNNの第1層におけるフィルタの特性によって定義される。
また、Agg-GNNでは、写像演算子の選択性は、CNNステージの第1層においてのみフィルタの特性に結びついていると結論付けている。
- 参考スコア(独自算出の注目度): 203.05183485241383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we study the stability properties of aggregation graph neural
networks (Agg-GNNs) considering perturbations of the underlying graph. An
Agg-GNN is a hybrid architecture where information is defined on the nodes of a
graph, but it is processed block-wise by Euclidean CNNs on the nodes after
several diffusions on the graph shift operator. We derive stability bounds for
the mapping operator associated to a generic Agg-GNN, and we specify conditions
under which such operators can be stable to deformations. We prove that the
stability bounds are defined by the properties of the filters in the first
layer of the CNN that acts on each node. Additionally, we show that there is a
close relationship between the number of aggregations, the filter's
selectivity, and the size of the stability constants. We also conclude that in
Agg-GNNs the selectivity of the mapping operators is tied to the properties of
the filters only in the first layer of the CNN stage. This shows a substantial
difference with respect to the stability properties of selection GNNs, where
the selectivity of the filters in all layers is constrained by their stability.
We provide numerical evidence corroborating the results derived, testing the
behavior of Agg-GNNs in real life application scenarios considering
perturbations of different magnitude.
- Abstract(参考訳): 本稿では,グラフの摂動を考慮したアグリゲーショングラフニューラルネットワーク(Agg-GNN)の安定性について検討する。
Agg-GNNは、グラフのノード上で情報が定義されるハイブリッドアーキテクチャであるが、グラフシフト演算子上で数回拡散した後、ノード上でユークリッドCNNによってブロックワイズに処理される。
我々は、一般的なAgg-GNNに付随する写像作用素の安定性境界を導出し、そのような作用素が変形に対して安定な条件を指定する。
我々は、各ノードに作用するcnnの第1層におけるフィルタの特性によって、安定性境界が定義されることを証明した。
さらに,アグリゲーション数,フィルタの選択率,安定性定数の大きさとの間には密接な関係があることを示した。
また、agg-gnnsでは、マッピング演算子の選択性は、cnnステージの第1層でのみフィルタの特性に結びついていると結論づける。
これは、すべての層におけるフィルタの選択性がその安定性によって制約される選択GNNの安定性特性に対して、かなりの差を示す。
本稿では,Agg-GNNの動作を,異なる大きさの摂動を考慮した実生活応用シナリオで検証する。
関連論文リスト
- On the Trade-Off between Stability and Representational Capacity in
Graph Neural Networks [22.751509906413943]
20以上のソリューションを統合する汎用GNNフレームワークであるEdgeNetの安定性について検討する。
異なるEdgeNetカテゴリの安定性への影響を調べた結果,パラメータ空間における自由度が低いGNNの方が,表現能力の低いGNNの方がより安定であることが判明した。
論文 参考訳(メタデータ) (2023-12-04T22:07:17Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Limitless stability for Graph Convolutional Networks [8.1585306387285]
この研究は、グラフ畳み込みネットワークに対する厳密で斬新で広く適用可能な安定性保証と転送可能性境界を確立する。
グラフ畳み込みネットワークは、GSOがグラフラプラシアンであり、フィルタが無限大で正則である場合、グラフ粗粒化法の下で安定であることを示す。
論文 参考訳(メタデータ) (2023-01-26T22:17:00Z) - Stability of Neural Networks on Manifolds to Relative Perturbations [118.84154142918214]
グラフニューラルネットワーク(GNN)は多くの実践シナリオにおいて素晴らしいパフォーマンスを示している。
GNNは大規模グラフ上でうまくスケールすることができるが、これは既存の安定性がノード数とともに増加するという事実に矛盾する。
論文 参考訳(メタデータ) (2021-10-10T04:37:19Z) - Training Stable Graph Neural Networks Through Constrained Learning [116.03137405192356]
グラフニューラルネットワーク(GNN)は、ネットワークデータから機能を学ぶためにグラフ畳み込みに依存する。
GNNは、グラフフィルタから受け継いだ特性である、基礎となるグラフの様々な種類の摂動に対して安定である。
本稿では,GNNの安定条件に制約を課すことにより,新たな制約付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T15:54:42Z) - Stability of Graph Convolutional Neural Networks to Stochastic
Perturbations [122.12962842842349]
グラフ畳み込みニューラルネットワーク(GCNN)は、ネットワークデータから表現を学ぶ非線形処理ツールである。
現在の分析では決定論的摂動を考慮しているが、トポロジカルな変化がランダムである場合、関連する洞察を与えられない。
本稿では,リンク損失に起因する乱れグラフ摂動に対するGCNNの安定性について検討する。
論文 参考訳(メタデータ) (2021-06-19T16:25:28Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。