論文の概要: Stochastic Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2006.02684v2
- Date: Sat, 19 Jun 2021 15:45:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 12:38:09.900206
- Title: Stochastic Graph Neural Networks
- Title(参考訳): 確率グラフニューラルネットワーク
- Authors: Zhan Gao, Elvin Isufi and Alejandro Ribeiro
- Abstract要約: グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
- 参考スコア(独自算出の注目度): 123.39024384275054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) model nonlinear representations in graph data
with applications in distributed agent coordination, control, and planning
among others. Current GNN architectures assume ideal scenarios and ignore link
fluctuations that occur due to environment, human factors, or external attacks.
In these situations, the GNN fails to address its distributed task if the
topological randomness is not considered accordingly. To overcome this issue,
we put forth the stochastic graph neural network (SGNN) model: a GNN where the
distributed graph convolution module accounts for the random network changes.
Since stochasticity brings in a new learning paradigm, we conduct a statistical
analysis on the SGNN output variance to identify conditions the learned filters
should satisfy for achieving robust transference to perturbed scenarios,
ultimately revealing the explicit impact of random link losses. We further
develop a stochastic gradient descent (SGD) based learning process for the SGNN
and derive conditions on the learning rate under which this learning process
converges to a stationary point. Numerical results corroborate our theoretical
findings and compare the benefits of SGNN robust transference with a
conventional GNN that ignores graph perturbations during learning.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画などに応用されたグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処できない。
この問題を克服するために,分散グラフ畳み込みモジュールがランダムなネットワーク変化に寄与するGNNという確率グラフニューラルネットワーク(SGNN)モデルを考案した。
確率性は新しい学習パラダイムをもたらすため、sgnn出力分散の統計的解析を行い、摂動シナリオへの堅牢な転移を達成するために学習したフィルタが満たすべき条件を特定し、最終的にランダムリンク損失の明らかな影響を明らかにする。
さらに,sgnnの確率的勾配降下(sgd)に基づく学習過程と,この学習過程が定常点に収束する学習率の導出条件をさらに発展させる。
その結果,SGNNのロバスト転送の利点を学習中のグラフ摂動を無視する従来のGNNと比較した。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Training Stable Graph Neural Networks Through Constrained Learning [116.03137405192356]
グラフニューラルネットワーク(GNN)は、ネットワークデータから機能を学ぶためにグラフ畳み込みに依存する。
GNNは、グラフフィルタから受け継いだ特性である、基礎となるグラフの様々な種類の摂動に対して安定である。
本稿では,GNNの安定条件に制約を課すことにより,新たな制約付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T15:54:42Z) - Stability of Graph Convolutional Neural Networks to Stochastic
Perturbations [122.12962842842349]
グラフ畳み込みニューラルネットワーク(GCNN)は、ネットワークデータから表現を学ぶ非線形処理ツールである。
現在の分析では決定論的摂動を考慮しているが、トポロジカルな変化がランダムである場合、関連する洞察を与えられない。
本稿では,リンク損失に起因する乱れグラフ摂動に対するGCNNの安定性について検討する。
論文 参考訳(メタデータ) (2021-06-19T16:25:28Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。