論文の概要: RAN-GNNs: breaking the capacity limits of graph neural networks
- arxiv url: http://arxiv.org/abs/2103.15565v1
- Date: Mon, 29 Mar 2021 12:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 23:10:30.320434
- Title: RAN-GNNs: breaking the capacity limits of graph neural networks
- Title(参考訳): RAN-GNN:グラフニューラルネットワークの容量限界を破る
- Authors: Diego Valsesia, Giulia Fracastoro, Enrico Magli
- Abstract要約: グラフニューラルネットワークは、グラフ上で定義されたデータの学習と分析に対処する問題の中心となっている。
最近の研究では、複数の近隣サイズを同時に考慮し、適応的にそれらを調整する必要があるためです。
ランダムに配線されたアーキテクチャを用いることで、ネットワークの容量を増大させ、よりリッチな表現を得ることができることを示す。
- 参考スコア(独自算出の注目度): 43.66682619000099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks have become a staple in problems addressing learning
and analysis of data defined over graphs. However, several results suggest an
inherent difficulty in extracting better performance by increasing the number
of layers. Recent works attribute this to a phenomenon peculiar to the
extraction of node features in graph-based tasks, i.e., the need to consider
multiple neighborhood sizes at the same time and adaptively tune them. In this
paper, we investigate the recently proposed randomly wired architectures in the
context of graph neural networks. Instead of building deeper networks by
stacking many layers, we prove that employing a randomly-wired architecture can
be a more effective way to increase the capacity of the network and obtain
richer representations. We show that such architectures behave like an ensemble
of paths, which are able to merge contributions from receptive fields of varied
size. Moreover, these receptive fields can also be modulated to be wider or
narrower through the trainable weights over the paths. We also provide
extensive experimental evidence of the superior performance of randomly wired
architectures over multiple tasks and four graph convolution definitions, using
recent benchmarking frameworks that addresses the reliability of previous
testing methodologies.
- Abstract(参考訳): グラフニューラルネットワークは、グラフ上で定義されたデータの学習と分析に対処する問題の中心となっている。
しかし,いくつかの結果から,層数の増加による性能向上の難しさが示唆された。
最近の研究は、グラフベースのタスクにおけるノードの特徴の抽出、すなわち複数の近傍サイズを同時に考慮し、それらを適応的に調整する必要があるという現象に特化している。
本稿では,最近提案されたグラフニューラルネットワークのコンテキストにおけるランダム配線アーキテクチャについて検討する。
多くの層を積み重ねてより深いネットワークを構築する代わりに、ランダムに配線されたアーキテクチャを使うことが、ネットワークの容量を増やし、よりリッチな表現を得るためのより効果的な方法であることを示す。
このようなアーキテクチャはパスのアンサンブルのように振舞い、様々な大きさの受容的フィールドからコントリビューションをマージできることを示す。
さらに、これらの受容場は、経路上のトレーニング可能な重みを通してより広く、より狭く変調することもできる。
また、従来のテスト手法の信頼性に対処する最近のベンチマークフレームワークを用いて、複数のタスクと4つのグラフ畳み込み定義に対してランダムに配線されたアーキテクチャの優れた性能を示す広範な実験的証拠を提供する。
関連論文リスト
- AGNN: Alternating Graph-Regularized Neural Networks to Alleviate
Over-Smoothing [29.618952407794776]
グラフ畳み込み層(GCL)とグラフ埋め込み層(GEL)からなる交代グラフ正規化ニューラルネットワーク(AGNN)を提案する。
GELはラプラシアン埋め込み項を含むグラフ正規化最適化から導かれる。
AGNNは、いくつかの多層または多次グラフニューラルネットワークのパフォーマンス比較を含む、多数の実験を通じて評価されている。
論文 参考訳(メタデータ) (2023-04-14T09:20:03Z) - Building Shortcuts between Distant Nodes with Biaffine Mapping for Graph
Convolutional Networks [18.160610500658183]
本稿では,浅いアーキテクチャでグラフ畳み込みネットワークの表現性を向上するバイファイン手法を提案する。
提案手法は,ノードの長距離隣人への直接依存を学習することであり,ノード表現のためのリッチな情報を取得することができるのはワンホップメッセージパッシングのみである。
論文 参考訳(メタデータ) (2023-02-17T06:39:47Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Mastering Spatial Graph Prediction of Road Networks [18.321172168775472]
グラフエッジの列の追加をシミュレートするグラフベースのフレームワークを提案する。
特に、衛星画像に関連する部分生成グラフが与えられた場合、RLエージェントは累積報酬を最大化する修正を通知する。
論文 参考訳(メタデータ) (2022-10-03T11:26:09Z) - Tree Decomposed Graph Neural Network [11.524511007436791]
本研究では,異なる階層の近傍を乱して特徴の平滑化を緩和する木分解法を提案する。
また、木分解定式化におけるグラフ拡散によるマルチホップ依存性を特徴付け、木分解グラフニューラルネットワーク(TDGNN)を構築する。
総合的な実験は、ホモフィリーネットワークとヘテロフィリーネットワークの両方において、TDGNNの優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-25T02:47:16Z) - Improving Graph Neural Networks with Simple Architecture Design [7.057970273958933]
グラフニューラルネットワークの重要な設計戦略をいくつか紹介する。
簡便で浅いモデルである特徴選択グラフニューラルネットワーク(FSGNN)を紹介します。
提案手法は,他のGNNモデルよりも優れており,ノード分類タスクの精度が最大64%向上していることを示す。
論文 参考訳(メタデータ) (2021-05-17T06:46:01Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。