論文の概要: Multi-scale Graph Convolutional Networks with Self-Attention
- arxiv url: http://arxiv.org/abs/2112.03262v1
- Date: Sat, 4 Dec 2021 04:41:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 15:01:26.048187
- Title: Multi-scale Graph Convolutional Networks with Self-Attention
- Title(参考訳): 自己注意型マルチスケールグラフ畳み込みネットワーク
- Authors: Zhilong Xiong, Jia Cai
- Abstract要約: グラフ畳み込みネットワーク(GCN)は,様々なグラフ構造データを扱うための優れた学習能力を実現している。
GCNsの重要な問題として, 過平滑化現象が解決され, 検討が続けられている。
本稿では,GCNの設計に自己認識機構とマルチスケール情報を取り入れた2つの新しいマルチスケールGCNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.66512000865131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional networks (GCNs) have achieved remarkable learning ability
for dealing with various graph structural data recently. In general, deep GCNs
do not work well since graph convolution in conventional GCNs is a special form
of Laplacian smoothing, which makes the representation of different nodes
indistinguishable. In the literature, multi-scale information was employed in
GCNs to enhance the expressive power of GCNs. However, over-smoothing
phenomenon as a crucial issue of GCNs remains to be solved and investigated. In
this paper, we propose two novel multi-scale GCN frameworks by incorporating
self-attention mechanism and multi-scale information into the design of GCNs.
Our methods greatly improve the computational efficiency and prediction
accuracy of the GCNs model. Extensive experiments on both node classification
and graph classification demonstrate the effectiveness over several
state-of-the-art GCNs. Notably, the proposed two architectures can efficiently
mitigate the over-smoothing problem of GCNs, and the layer of our model can
even be increased to $64$.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は,近年,様々なグラフ構造データを扱うための優れた学習能力を実現している。
一般に、ディープGCNは従来のGCNのグラフ畳み込みはラプラシア平滑化の特別な形式であり、異なるノードの表現が区別できないため、うまく機能しない。
文献では、GCNの表現力を高めるために、GCNにマルチスケール情報を用いた。
しかし,GCNsの重要な問題である過平滑化現象は未解決であり,検討が続けられている。
本稿では,GCNの設計に自己認識機構とマルチスケール情報を取り入れた2つの新しいマルチスケールGCNフレームワークを提案する。
提案手法はGCNsモデルの計算効率と予測精度を大幅に向上させる。
ノード分類とグラフ分類の両方に関する大規模な実験は、いくつかの最先端GCNに対する効果を示す。
特に,提案した2つのアーキテクチャはGCNの過度にスムースな問題を効果的に軽減し,モデル層を64ドルまで高めることができる。
関連論文リスト
- SStaGCN: Simplified stacking based graph convolutional networks [2.556756699768804]
グラフ畳み込みネットワーク(GCN)は、様々なグラフ構造データ学習タスクにおいて広く研究されている強力なモデルである。
本稿では, SStaGCN (Simplified stacking based GCN) と呼ばれる新しいGCNを提案する。
SStaGCNはGCNの過密問題を効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2021-11-16T05:00:08Z) - Graph Partner Neural Networks for Semi-Supervised Learning on Graphs [16.489177915147785]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データを処理するのに強力であり、ノード分類、リンク予測、グラフ分類などのタスクで最先端のパフォーマンスを達成した。
グラフ畳み込み処理を繰り返した後にノードの表現が区別できない傾向にあるため、深いGCNが過度に滑らかな問題に悩まされることは避けられない。
本稿では,非パラメータ化GCNとパラメータ共有スキームを組み合わせたグラフパートナーニューラルネットワーク(GPNN)を提案する。
論文 参考訳(メタデータ) (2021-10-18T10:56:56Z) - Tackling Over-Smoothing for General Graph Convolutional Networks [88.71154017107257]
一般的なGCNは、GCN, GCN with bias, ResGCN, APPNPを含む深度の増加とともにどのように振る舞うかを検討する。
そこで我々はDropEdgeを提案し,各トレーニングエポックにおいて一定数のエッジをランダムに除去することで過度なスムース化を緩和する。
論文 参考訳(メタデータ) (2020-08-22T16:14:01Z) - AM-GCN: Adaptive Multi-channel Graph Convolutional Networks [85.0332394224503]
グラフ畳み込みネットワーク(GCN)は,豊富な情報を持つ複雑なグラフにおいて,ノードの特徴と位相構造を最適に統合できるかどうかを検討する。
半教師付き分類(AM-GCN)のための適応型マルチチャネルグラフ畳み込みネットワークを提案する。
実験の結果,AM-GCNはノードの特徴とトポロジ的構造の両方から最も相関性の高い情報を抽出することがわかった。
論文 参考訳(メタデータ) (2020-07-05T08:16:03Z) - Simple and Deep Graph Convolutional Networks [63.76221532439285]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データに対する強力なディープラーニングアプローチである。
その成功にもかかわらず、現在のGCNモデルは、エムの過度に滑らかな問題のため、ほとんどが浅くなっている。
本稿では,2つの単純かつ効果的な手法を用いて,バニラGCNモデルを拡張したGCNIIを提案する。
論文 参考訳(メタデータ) (2020-07-04T16:18:06Z) - Investigating and Mitigating Degree-Related Biases in Graph
Convolutional Networks [62.8504260693664]
グラフ畳み込みネットワーク(GCN)は、グラフ上の半教師付き学習タスクに対して有望な結果を示す。
本稿では,ノード次数分布に関するGCNを解析する。
本稿では,GCNの次数バイアスを緩和する自己監督型DegreeSpecific GCN(SL-DSGC)を開発した。
論文 参考訳(メタデータ) (2020-06-28T16:26:47Z) - DeeperGCN: All You Need to Train Deeper GCNs [66.64739331859226]
グラフ畳み込みネットワーク(GCN)はグラフ上での表現学習の力で注目されている。
非常に深いレイヤを積み重ねることのできる畳み込みニューラルネットワーク(CNN)とは異なり、GCNはより深く進むと、勾配の消失、過度なスムース化、過度に適合する問題に悩まされる。
本稿では,非常に深いGCNを正常かつ確実に訓練できるDeeperGCNを提案する。
論文 参考訳(メタデータ) (2020-06-13T23:00:22Z) - Cross-GCN: Enhancing Graph Convolutional Network with $k$-Order Feature
Interactions [153.6357310444093]
Graph Convolutional Network(GCN)は,グラフデータの学習と推論を行う新興技術である。
我々は、GCNの既存の設計がクロスフィーチャをモデリングし、クロスフィーチャが重要であるタスクやデータに対してGCNの効率を損なうことを論じている。
我々は、任意の次交叉特徴を、特徴次元と順序サイズに線形に複雑にモデル化した、クロスフィーチャーグラフ畳み込みという新しい演算子を設計する。
論文 参考訳(メタデータ) (2020-03-05T13:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。