論文の概要: AM-GCN: Adaptive Multi-channel Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2007.02265v2
- Date: Sat, 11 Jul 2020 03:23:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 08:45:06.349016
- Title: AM-GCN: Adaptive Multi-channel Graph Convolutional Networks
- Title(参考訳): AM-GCN:適応型マルチチャネルグラフ畳み込みネットワーク
- Authors: Xiao Wang, Meiqi Zhu, Deyu Bo, Peng Cui, Chuan Shi, Jian Pei
- Abstract要約: グラフ畳み込みネットワーク(GCN)は,豊富な情報を持つ複雑なグラフにおいて,ノードの特徴と位相構造を最適に統合できるかどうかを検討する。
半教師付き分類(AM-GCN)のための適応型マルチチャネルグラフ畳み込みネットワークを提案する。
実験の結果,AM-GCNはノードの特徴とトポロジ的構造の両方から最も相関性の高い情報を抽出することがわかった。
- 参考スコア(独自算出の注目度): 85.0332394224503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs) have gained great popularity in tackling
various analytics tasks on graph and network data. However, some recent studies
raise concerns about whether GCNs can optimally integrate node features and
topological structures in a complex graph with rich information. In this paper,
we first present an experimental investigation. Surprisingly, our experimental
results clearly show that the capability of the state-of-the-art GCNs in fusing
node features and topological structures is distant from optimal or even
satisfactory. The weakness may severely hinder the capability of GCNs in some
classification tasks, since GCNs may not be able to adaptively learn some deep
correlation information between topological structures and node features. Can
we remedy the weakness and design a new type of GCNs that can retain the
advantages of the state-of-the-art GCNs and, at the same time, enhance the
capability of fusing topological structures and node features substantially? We
tackle the challenge and propose an adaptive multi-channel graph convolutional
networks for semi-supervised classification (AM-GCN). The central idea is that
we extract the specific and common embeddings from node features, topological
structures, and their combinations simultaneously, and use the attention
mechanism to learn adaptive importance weights of the embeddings. Our extensive
experiments on benchmark data sets clearly show that AM-GCN extracts the most
correlated information from both node features and topological structures
substantially, and improves the classification accuracy with a clear margin.
- Abstract(参考訳): Graph Convolutional Networks(GCN)は、グラフやネットワークデータに対するさまざまな分析タスクに取り組むことで、大きな人気を集めている。
しかし、近年の研究では、gcnsがノードの特徴と位相構造を、リッチな情報を持つ複雑なグラフに最適に統合できるかどうかに懸念が持たれている。
本稿では,まず実験的な研究について述べる。
意外なことに, 実験結果から, ノード特徴や位相構造を融合させるGCNが, 最適あるいは満足できるものには程遠いことが明らかとなった。
この弱点は、GCNが位相構造とノード特徴の間の深い相関情報を適応的に学習できないため、いくつかの分類タスクにおいてGCNの能力を著しく損なう可能性がある。
最先端のGCNの利点を維持できる新しいタイプのGCNを設計し、同時に、トポロジ的構造とノードの特徴を著しく融合させる能力を高めることができるだろうか?
本稿では,半教師付き分類(AM-GCN)のための適応型マルチチャネルグラフ畳み込みネットワークを提案する。
中心となる考え方は、ノードの特徴、トポロジカル構造、およびそれらの組み合わせから特定の、一般的な埋め込みを同時に抽出し、注意機構を用いて埋め込みの適応的重要性重みを学習することである。
ベンチマークデータセットに関する広範な実験により、AM-GCNはノードの特徴と位相構造の両方から最も相関性の高い情報を抽出し、明確なマージンで分類精度を向上することを示した。
関連論文リスト
- Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - What Do Graph Convolutional Neural Networks Learn? [0.0]
グラフ畳み込みニューラルネットワーク(GCN)はグラフニューラルネットワーク(GNN)の共通変種である
近年の文献では、GCNは特定の「特殊条件」下でヘテロ親和性グラフ上での強い性能を達成可能であることが強調されている。
データセットの基盤となるグラフ構造について検討した結果,GCNのSSNC性能は,クラス内のノードの近傍構造における一貫性と特異性に大きく影響していることがわかった。
論文 参考訳(メタデータ) (2022-07-05T06:44:37Z) - Spiking Graph Convolutional Networks [19.36064180392385]
SpikingGCNは、GCNの埋め込みとSNNの生体忠実性特性を統合することを目的としたエンドツーエンドフレームワークである。
ニューロモルフィックチップ上でのスパイキングGCNは、グラフデータ解析にエネルギー効率の明確な利点をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-05T16:44:36Z) - Multi-scale Graph Convolutional Networks with Self-Attention [2.66512000865131]
グラフ畳み込みネットワーク(GCN)は,様々なグラフ構造データを扱うための優れた学習能力を実現している。
GCNsの重要な問題として, 過平滑化現象が解決され, 検討が続けられている。
本稿では,GCNの設計に自己認識機構とマルチスケール情報を取り入れた2つの新しいマルチスケールGCNフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-04T04:41:24Z) - SStaGCN: Simplified stacking based graph convolutional networks [2.556756699768804]
グラフ畳み込みネットワーク(GCN)は、様々なグラフ構造データ学習タスクにおいて広く研究されている強力なモデルである。
本稿では, SStaGCN (Simplified stacking based GCN) と呼ばれる新しいGCNを提案する。
SStaGCNはGCNの過密問題を効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2021-11-16T05:00:08Z) - Curvature Graph Neural Network [8.477559786537919]
離散グラフ曲率(リッチ曲率)を導入し、対ノードの構造接続の強度を定量化する。
GNNの適応的局所性能力を効果的に向上する曲線グラフニューラルネットワーク(CGNN)を提案する。
合成データセットの実験結果から,CGNNはトポロジ構造情報を効果的に活用していることがわかった。
論文 参考訳(メタデータ) (2021-06-30T00:56:03Z) - Hierarchical Graph Capsule Network [78.4325268572233]
ノード埋め込みを共同で学習し,グラフ階層を抽出できる階層型グラフカプセルネットワーク(HGCN)を提案する。
階層的表現を学ぶために、HGCNは下層カプセル(部分)と高層カプセル(全体)の間の部分的関係を特徴付ける。
論文 参考訳(メタデータ) (2020-12-16T04:13:26Z) - DeeperGCN: All You Need to Train Deeper GCNs [66.64739331859226]
グラフ畳み込みネットワーク(GCN)はグラフ上での表現学習の力で注目されている。
非常に深いレイヤを積み重ねることのできる畳み込みニューラルネットワーク(CNN)とは異なり、GCNはより深く進むと、勾配の消失、過度なスムース化、過度に適合する問題に悩まされる。
本稿では,非常に深いGCNを正常かつ確実に訓練できるDeeperGCNを提案する。
論文 参考訳(メタデータ) (2020-06-13T23:00:22Z) - Cross-GCN: Enhancing Graph Convolutional Network with $k$-Order Feature
Interactions [153.6357310444093]
Graph Convolutional Network(GCN)は,グラフデータの学習と推論を行う新興技術である。
我々は、GCNの既存の設計がクロスフィーチャをモデリングし、クロスフィーチャが重要であるタスクやデータに対してGCNの効率を損なうことを論じている。
我々は、任意の次交叉特徴を、特徴次元と順序サイズに線形に複雑にモデル化した、クロスフィーチャーグラフ畳み込みという新しい演算子を設計する。
論文 参考訳(メタデータ) (2020-03-05T13:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。