論文の概要: On the Trade-Off between Stability and Representational Capacity in
Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2312.02372v1
- Date: Mon, 4 Dec 2023 22:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 17:27:18.170984
- Title: On the Trade-Off between Stability and Representational Capacity in
Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける安定性と表現能力のトレードオフについて
- Authors: Zhan Gao, Amanda Prorok, Elvin Isufi
- Abstract要約: 20以上のソリューションを統合する汎用GNNフレームワークであるEdgeNetの安定性について検討する。
異なるEdgeNetカテゴリの安定性への影響を調べた結果,パラメータ空間における自由度が低いGNNの方が,表現能力の低いGNNの方がより安定であることが判明した。
- 参考スコア(独自算出の注目度): 22.751509906413943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analyzing the stability of graph neural networks (GNNs) under topological
perturbations is key to understanding their transferability and the role of
each architecture component. However, stability has been investigated only for
particular architectures, questioning whether it holds for a broader spectrum
of GNNs or only for a few instances. To answer this question, we study the
stability of EdgeNet: a general GNN framework that unifies more than twenty
solutions including the convolutional and attention-based classes, as well as
graph isomorphism networks and hybrid architectures. We prove that all GNNs
within the EdgeNet framework are stable to topological perturbations. By
studying the effect of different EdgeNet categories on the stability, we show
that GNNs with fewer degrees of freedom in their parameter space, linked to a
lower representational capacity, are more stable. The key factor yielding this
trade-off is the eigenvector misalignment between the EdgeNet parameter
matrices and the graph shift operator. For example, graph convolutional neural
networks that assign a single scalar per signal shift (hence, with a perfect
alignment) are more stable than the more involved node or edge-varying
counterparts. Extensive numerical results corroborate our theoretical findings
and highlight the role of different architecture components in the trade-off.
- Abstract(参考訳): トポロジ的摂動下でのグラフニューラルネットワーク(GNN)の安定性の分析は、その伝達可能性と各アーキテクチャコンポーネントの役割を理解する上で重要である。
しかし、安定性は特定のアーキテクチャでのみ研究されており、GNNの幅広いスペクトルに当てはまるか、少数のインスタンスに限られるかが疑問視されている。
この問いに答えるために、EdgeNetの安定性について検討する。グラフ同型ネットワークやハイブリッドアーキテクチャと同様に、畳み込みと注目に基づくクラスを含む20以上のソリューションを統合する一般的なGNNフレームワークである。
EdgeNetフレームワーク内のすべてのGNNが、トポロジ的摂動に対して安定であることを示す。
異なるEdgeNetカテゴリの安定性への影響を調べた結果,パラメータ空間における自由度が低いGNNの方が,表現能力の低いGNNの方がより安定であることが判明した。
このトレードオフをもたらす重要な要因は、EdgeNetパラメータ行列とグラフシフト演算子との間の固有ベクトルの不整合である。
例えば、信号シフト毎に単一のスカラーを割り当てるグラフ畳み込みニューラルネットワーク(完全なアライメントを持つhence)は、関連するノードやエッジ変動よりも安定している。
広範な数値結果が我々の理論的知見と一致し、トレードオフにおける異なるアーキテクチャコンポーネントの役割を強調する。
関連論文リスト
- Stability of Aggregation Graph Neural Networks [153.70485149740608]
グラフの摂動を考慮したアグリゲーショングラフニューラルネットワーク(Agg-GNN)の安定性特性について検討した。
安定性境界は各ノードに作用するCNNの第1層におけるフィルタの特性によって定義される。
また、Agg-GNNでは、写像演算子の選択性は、CNNステージの第1層においてのみフィルタの特性に結びついていると結論付けている。
論文 参考訳(メタデータ) (2022-07-08T03:54:52Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Stability of Neural Networks on Manifolds to Relative Perturbations [118.84154142918214]
グラフニューラルネットワーク(GNN)は多くの実践シナリオにおいて素晴らしいパフォーマンスを示している。
GNNは大規模グラフ上でうまくスケールすることができるが、これは既存の安定性がノード数とともに増加するという事実に矛盾する。
論文 参考訳(メタデータ) (2021-10-10T04:37:19Z) - Training Stable Graph Neural Networks Through Constrained Learning [116.03137405192356]
グラフニューラルネットワーク(GNN)は、ネットワークデータから機能を学ぶためにグラフ畳み込みに依存する。
GNNは、グラフフィルタから受け継いだ特性である、基礎となるグラフの様々な種類の摂動に対して安定である。
本稿では,GNNの安定条件に制約を課すことにより,新たな制約付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T15:54:42Z) - Stability of Graph Convolutional Neural Networks to Stochastic
Perturbations [122.12962842842349]
グラフ畳み込みニューラルネットワーク(GCNN)は、ネットワークデータから表現を学ぶ非線形処理ツールである。
現在の分析では決定論的摂動を考慮しているが、トポロジカルな変化がランダムである場合、関連する洞察を与えられない。
本稿では,リンク損失に起因する乱れグラフ摂動に対するGCNNの安定性について検討する。
論文 参考訳(メタデータ) (2021-06-19T16:25:28Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。