論文の概要: Learning Stable Graph Neural Networks via Spectral Regularization
- arxiv url: http://arxiv.org/abs/2211.06966v1
- Date: Sun, 13 Nov 2022 17:27:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 20:01:43.360855
- Title: Learning Stable Graph Neural Networks via Spectral Regularization
- Title(参考訳): スペクトル正規化による安定グラフニューラルネットワークの学習
- Authors: Zhan Gao and Elvin Isufi
- Abstract要約: グラフニューラルネットワーク(GNN)の安定性は、GNNがグラフ摂動にどう反応するかを特徴付け、ノイズの多いシナリオでアーキテクチャのパフォーマンスを保証する。
本稿では,グラフスペクトル領域におけるフィルタ周波数応答を正規化することにより,アーキテクチャの安定性を向上させる自己正規化グラフニューラルネットワーク(SR-GNN)を開発した。
- 参考スコア(独自算出の注目度): 18.32587282139282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stability of graph neural networks (GNNs) characterizes how GNNs react to
graph perturbations and provides guarantees for architecture performance in
noisy scenarios. This paper develops a self-regularized graph neural network
(SR-GNN) solution that improves the architecture stability by regularizing the
filter frequency responses in the graph spectral domain. The SR-GNN considers
not only the graph signal as input but also the eigenvectors of the underlying
graph, where the signal is processed to generate task-relevant features and the
eigenvectors to characterize the frequency responses at each layer. We train
the SR-GNN by minimizing the cost function and regularizing the maximal
frequency response close to one. The former improves the architecture
performance, while the latter tightens the perturbation stability and
alleviates the information loss through multi-layer propagation. We further
show the SR-GNN preserves the permutation equivariance, which allows to explore
the internal symmetries of graph signals and to exhibit transference on similar
graph structures. Numerical results with source localization and movie
recommendation corroborate our findings and show the SR-GNN yields a comparable
performance with the vanilla GNN on the unperturbed graph but improves
substantially the stability.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の安定性は、GNNがグラフ摂動にどう反応するかを特徴付け、ノイズの多いシナリオでアーキテクチャのパフォーマンスを保証する。
本稿では,グラフスペクトル領域のフィルタ周波数応答を正則化することにより,アーキテクチャの安定性を向上させる自己正規化グラフニューラルネットワーク(sr-gnn)を開発した。
SR-GNNは、グラフ信号を入力としてだけでなく、各層における周波数応答を特徴付けるタスク関連特徴と固有ベクトルを生成するために処理されるグラフの固有ベクトルも考慮している。
SR-GNNはコスト関数の最小化と最大周波数応答の正則化により訓練する。
前者はアーキテクチャ性能を改善し、後者は摂動安定性を強化し、多層伝播による情報損失を軽減する。
さらに、SR-GNNは置換同値を保ち、グラフ信号の内部対称性を探索し、類似したグラフ構造に転移を示すことができることを示す。
ソースローカライゼーションと映画レコメンデーションによる数値的な結果から,SR-GNNは未飽和グラフ上のバニラGNNと同等の性能を示すが,安定性は著しく向上する。
関連論文リスト
- Adaptive Least Mean Squares Graph Neural Networks and Online Graph
Signal Estimation [3.6448362316632115]
時間変化グラフ信号のオンライン推定のための効率的なニューラルネットワークアーキテクチャを提案する。
Adaptive Least Mean Squares Graph Neural Networks (LMS-GNN)は、適応グラフフィルタとグラフニューラルネットワーク(GNN)の組み合わせである。
実世界の温度データを用いて実験したところ,我々のLMS-GNNはグラフベースの手法よりも正確なオンライン予測を実現していることがわかった。
論文 参考訳(メタデータ) (2024-01-27T05:47:12Z) - Stable and Transferable Hyper-Graph Neural Networks [95.07035704188984]
グラフニューラルネットワーク(GNN)を用いたハイパーグラフでサポートする信号処理アーキテクチャを提案する。
スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差をバウンドするフレームワークを提供する。
論文 参考訳(メタデータ) (2022-11-11T23:44:20Z) - Space-Time Graph Neural Networks with Stochastic Graph Perturbations [100.31591011966603]
時空間グラフニューラルネットワーク(ST-GNN)は、時間変動データの効率的なグラフ表現を学習する。
本稿では,ST-GNNの特性を再検討し,安定なグラフ安定性を示す。
解析の結果,ST-GNNは時間変化グラフ上での移動学習に適していることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:59:51Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Training Stable Graph Neural Networks Through Constrained Learning [116.03137405192356]
グラフニューラルネットワーク(GNN)は、ネットワークデータから機能を学ぶためにグラフ畳み込みに依存する。
GNNは、グラフフィルタから受け継いだ特性である、基礎となるグラフの様々な種類の摂動に対して安定である。
本稿では,GNNの安定条件に制約を課すことにより,新たな制約付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T15:54:42Z) - Stability of Graph Convolutional Neural Networks to Stochastic
Perturbations [122.12962842842349]
グラフ畳み込みニューラルネットワーク(GCNN)は、ネットワークデータから表現を学ぶ非線形処理ツールである。
現在の分析では決定論的摂動を考慮しているが、トポロジカルな変化がランダムである場合、関連する洞察を与えられない。
本稿では,リンク損失に起因する乱れグラフ摂動に対するGCNNの安定性について検討する。
論文 参考訳(メタデータ) (2021-06-19T16:25:28Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。