論文の概要: Multipath Graph Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2105.01510v1
- Date: Tue, 4 May 2021 14:11:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 15:29:01.055786
- Title: Multipath Graph Convolutional Neural Networks
- Title(参考訳): マルチパスグラフ畳み込みニューラルネットワーク
- Authors: Rangan Das, Bikram Boote, Saumik Bhattacharya, Ujjwal Maulik
- Abstract要約: 本稿では,複数の浅いネットワークの出力を集約する新しいマルチパスグラフ畳み込みニューラルネットワークを提案する。
その結果,提案手法は精度の向上だけでなく,収束に要する訓練時間も少なくなることがわかった。
- 参考スコア(独自算出の注目度): 6.216778442751621
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph convolution networks have recently garnered a lot of attention for
representation learning on non-Euclidean feature spaces. Recent research has
focused on stacking multiple layers like in convolutional neural networks for
the increased expressive power of graph convolution networks. However, simply
stacking multiple graph convolution layers lead to issues like vanishing
gradient, over-fitting and over-smoothing. Such problems are much less when
using shallower networks, even though the shallow networks have lower
expressive power. In this work, we propose a novel Multipath Graph
convolutional neural network that aggregates the output of multiple different
shallow networks. We train and test our model on various benchmarks datasets
for the task of node property prediction. Results show that the proposed method
not only attains increased test accuracy but also requires fewer training
epochs to converge. The full implementation is available at
https://github.com/rangan2510/MultiPathGCN
- Abstract(参考訳): グラフ畳み込みネットワークは最近、非ユークリッド特徴空間での表現学習に多くの注目を集めている。
最近の研究は、グラフ畳み込みネットワークの表現力を高めるために畳み込みニューラルネットワークのような複数の層を積み重ねることに焦点を当てている。
しかし、複数のグラフ畳み込み層を積み重ねるだけで、勾配の消失、過剰フィッティング、過剰なスムーシングといった問題が発生する。
このような問題は、浅いネットワークが表現力が低いにもかかわらず、より浅いネットワークを使う場合よりはるかに少ない。
本研究では,複数の浅いネットワークの出力を集約する新しいマルチパスグラフ畳み込みニューラルネットワークを提案する。
ノード特性予測タスクのために,さまざまなベンチマークデータセット上でモデルをトレーニングし,テストする。
その結果, 提案手法は試験精度の向上だけでなく, 収束する訓練エポックの低減も要求されることがわかった。
完全な実装はhttps://github.com/rangan2510/multipathgcnで利用可能である。
関連論文リスト
- Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - RaWaNet: Enriching Graph Neural Network Input via Random Walks on Graphs [0.0]
グラフニューラルネットワーク(GNN)の人気が高まっており、グラフで表されるデータに対して非常に有望な結果を示している。
本稿では,3つの選択された長さに基づいて,グラフのランダムなウォークデータ処理を提案する。すなわち,グラフ上の局所的および大域的ダイナミクスを捉えるために,長さ1,2の(正規)ウォークと長さ0,1$の分節ウォークを提案する。
本手法は, 処理ノードの特徴をネットワークに渡すことによって, 様々な分子データセット上で検証し, 分類および回帰処理を行う。
論文 参考訳(メタデータ) (2021-09-15T20:04:01Z) - Training Graph Neural Networks by Graphon Estimation [2.5997274006052544]
本稿では,基礎となるネットワークデータから得られたグラフトン推定値から再サンプリングすることで,グラフニューラルネットワークをトレーニングする。
我々のアプローチは競争力があり、多くの場合、他の過度にスムースなGNNトレーニング手法よりも優れています。
論文 参考訳(メタデータ) (2021-09-04T19:21:48Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - RAN-GNNs: breaking the capacity limits of graph neural networks [43.66682619000099]
グラフニューラルネットワークは、グラフ上で定義されたデータの学習と分析に対処する問題の中心となっている。
最近の研究では、複数の近隣サイズを同時に考慮し、適応的にそれらを調整する必要があるためです。
ランダムに配線されたアーキテクチャを用いることで、ネットワークの容量を増大させ、よりリッチな表現を得ることができることを示す。
論文 参考訳(メタデータ) (2021-03-29T12:34:36Z) - Analyzing Neural Networks Based on Random Graphs [77.34726150561087]
様々なタイプのランダムグラフに対応するアーキテクチャを用いて,ニューラルネットワークの大規模評価を行う。
古典的な数値グラフ不変量は、それ自体が最良のネットワークを選び出すことができない。
また、主に短距離接続を持つネットワークは、多くの長距離接続が可能なネットワークよりも性能が良いことも見出した。
論文 参考訳(メタデータ) (2020-02-19T11:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。