論文の概要: Convergence and Stability of Graph Convolutional Networks on Large
Random Graphs
- arxiv url: http://arxiv.org/abs/2006.01868v2
- Date: Fri, 23 Oct 2020 13:17:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 23:47:02.801247
- Title: Convergence and Stability of Graph Convolutional Networks on Large
Random Graphs
- Title(参考訳): 大規模ランダムグラフ上のグラフ畳み込みネットワークの収束と安定性
- Authors: Nicolas Keriven and Alberto Bietti and Samuel Vaiter
- Abstract要約: グラフ畳み込みネットワーク(GCN)の特性をランダムグラフの標準モデル上で解析することによって検討する。
まず,GCNの連続的な収束について検討し,ノード数の増加について検討する。
ランダムグラフモデルの小さな変形に対するGCNの安定性を解析する。
- 参考スコア(独自算出の注目度): 22.387735135790706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study properties of Graph Convolutional Networks (GCNs) by analyzing their
behavior on standard models of random graphs, where nodes are represented by
random latent variables and edges are drawn according to a similarity kernel.
This allows us to overcome the difficulties of dealing with discrete notions
such as isomorphisms on very large graphs, by considering instead more natural
geometric aspects. We first study the convergence of GCNs to their continuous
counterpart as the number of nodes grows. Our results are fully non-asymptotic
and are valid for relatively sparse graphs with an average degree that grows
logarithmically with the number of nodes. We then analyze the stability of GCNs
to small deformations of the random graph model. In contrast to previous
studies of stability in discrete settings, our continuous setup allows us to
provide more intuitive deformation-based metrics for understanding stability,
which have proven useful for explaining the success of convolutional
representations on Euclidean domains.
- Abstract(参考訳): グラフ畳み込みネットワーク(gcns)の特性をランダムグラフの標準モデル上で解析し,ノードをランダムな潜在変数で表現し,エッジを類似性カーネルで描画する。
これにより、より自然な幾何学的側面を考慮して、非常に大きなグラフ上の同型のような離散的な概念を扱うことの難しさを克服することができる。
まず,ノード数の増加に伴い,gcnsの連続的なコンバージェンスについて検討する。
結果は完全に非漸近的であり、ノード数に対数的に増加する平均次数を持つ比較的スパースグラフに対して有効である。
次に、ランダムグラフモデルの小さな変形に対するgcnsの安定性を分析する。
離散的な設定における安定性に関する以前の研究とは対照的に、我々の継続的なセットアップにより、より直感的な変形に基づくメトリクスを提供することで安定性を理解することができ、ユークリッド領域における畳み込み表現の成功を説明するのに有用であることが証明された。
関連論文リスト
- Unitary convolutions for learning on graphs and groups [0.9899763598214121]
我々は、訓練中により安定したより深いネットワークを可能にするユニタリグループ畳み込みについて研究する。
論文の主な焦点はグラフニューラルネットワークであり、ユニタリグラフの畳み込みがオーバー・スムーシングを確実に回避していることを示す。
実験結果から,ベンチマークデータセット上でのユニタリグラフ畳み込みネットワークの競合性能が確認できた。
論文 参考訳(メタデータ) (2024-10-07T21:09:14Z) - Estimating the stability number of a random graph using convolutional neural networks [0.0]
グラフ画像に畳み込みニューラルネットワーク(CNN)を用いることで、乱数グラフやネットワークの特性の濃度を予測できる可能性について検討する。
本研究で示されたモデルと結果は、これまで単純な深層学習技術では考慮されていなかった最適化問題にディープラーニングを適用する可能性を示している。
論文 参考訳(メタデータ) (2024-07-10T16:50:59Z) - Almost Surely Asymptotically Constant Graph Neural Networks [7.339728196535312]
出力は定数関数に収束し、これらの分類器が一様に表現できる上限となることを示す。
この強い収束現象は、芸術モデルを含む非常に幅広い種類のGNNに適用される。
我々はこれらの知見を実証的に検証し、収束現象がランダムグラフだけでなく、実世界のグラフにも現れることを観察した。
論文 参考訳(メタデータ) (2024-03-06T17:40:26Z) - Stable and Transferable Hyper-Graph Neural Networks [95.07035704188984]
グラフニューラルネットワーク(GNN)を用いたハイパーグラフでサポートする信号処理アーキテクチャを提案する。
スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差をバウンドするフレームワークを提供する。
論文 参考訳(メタデータ) (2022-11-11T23:44:20Z) - Stability of Aggregation Graph Neural Networks [153.70485149740608]
グラフの摂動を考慮したアグリゲーショングラフニューラルネットワーク(Agg-GNN)の安定性特性について検討した。
安定性境界は各ノードに作用するCNNの第1層におけるフィルタの特性によって定義される。
また、Agg-GNNでは、写像演算子の選択性は、CNNステージの第1層においてのみフィルタの特性に結びついていると結論付けている。
論文 参考訳(メタデータ) (2022-07-08T03:54:52Z) - Stability of Neural Networks on Manifolds to Relative Perturbations [118.84154142918214]
グラフニューラルネットワーク(GNN)は多くの実践シナリオにおいて素晴らしいパフォーマンスを示している。
GNNは大規模グラフ上でうまくスケールすることができるが、これは既存の安定性がノード数とともに増加するという事実に矛盾する。
論文 参考訳(メタデータ) (2021-10-10T04:37:19Z) - Training Stable Graph Neural Networks Through Constrained Learning [116.03137405192356]
グラフニューラルネットワーク(GNN)は、ネットワークデータから機能を学ぶためにグラフ畳み込みに依存する。
GNNは、グラフフィルタから受け継いだ特性である、基礎となるグラフの様々な種類の摂動に対して安定である。
本稿では,GNNの安定条件に制約を課すことにより,新たな制約付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T15:54:42Z) - Graph and graphon neural network stability [122.06927400759021]
グラフネットワーク(GNN)は、ネットワークデータの有意義な表現を生成するためにグラフ構造の知識に依存する学習アーキテクチャである。
我々は,GNNの安定性を,グラファイトと呼ばれるカーネルオブジェクトを用いて解析する。
論文 参考訳(メタデータ) (2020-10-23T16:55:56Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z) - The Power of Graph Convolutional Networks to Distinguish Random Graph
Models: Short Version [27.544219236164764]
グラフ畳み込みネットワーク(GCN)はグラフ表現学習において広く使われている手法である。
サンプルグラフの埋め込みに基づいて異なるランダムグラフモデルを区別するGCNのパワーについて検討する。
論文 参考訳(メタデータ) (2020-02-13T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。