論文の概要: Non-Recursive Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2105.03868v1
- Date: Sun, 9 May 2021 08:12:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:46:13.116258
- Title: Non-Recursive Graph Convolutional Networks
- Title(参考訳): 非再帰グラフ畳み込みネットワーク
- Authors: Hao Chen, Zengde Deng, Yue Xu, Zhoujun Li
- Abstract要約: 非再帰グラフ畳み込みネットワーク(NRGCN)と呼ばれる新しいアーキテクチャを提案し、GCNのトレーニング効率と学習パフォーマンスの両方を改善します。
NRGCNは、内部層凝集と層非依存サンプリングに基づいて、各ノードの隣人のホップを表す。
このようにして、各ノードは、隣人の各ホップから独立して抽出された情報を連結することで直接表現することができる。
- 参考スコア(独自算出の注目度): 33.459371861932574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs) are powerful models for node
representation learning tasks. However, the node representation in existing GCN
models is usually generated by performing recursive neighborhood aggregation
across multiple graph convolutional layers with certain sampling methods, which
may lead to redundant feature mixing, needless information loss, and extensive
computations. Therefore, in this paper, we propose a novel architecture named
Non-Recursive Graph Convolutional Network (NRGCN) to improve both the training
efficiency and the learning performance of GCNs in the context of node
classification. Specifically, NRGCN proposes to represent different hops of
neighbors for each node based on inner-layer aggregation and layer-independent
sampling. In this way, each node can be directly represented by concatenating
the information extracted independently from each hop of its neighbors thereby
avoiding the recursive neighborhood expansion across layers. Moreover, the
layer-independent sampling and aggregation can be precomputed before the model
training, thus the training process can be accelerated considerably. Extensive
experiments on benchmark datasets verify that our NRGCN outperforms the
state-of-the-art GCN models, in terms of the node classification performance
and reliability.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)はノード表現学習タスクのための強力なモデルである。
しかし、既存のgcnモデルにおけるノード表現は、特定のサンプリング法で複数のグラフ畳み込み層をまたいで再帰的な近傍アグリゲーションを行い、冗長な特徴混合、不要な情報損失、広範囲な計算に繋がる。
そこで本稿では,ノード分類の文脈におけるGCNの学習効率と学習性能の両立を図るため,Non-Recursive Graph Convolutional Network (NRGCN) という新しいアーキテクチャを提案する。
具体的には、NRGCNは、内部層凝集と層非依存サンプリングに基づいて、各ノードの隣人の異なるホップを表現することを提案する。
このようにして、隣接ノードの各ホップから独立して抽出された情報を連結することで、各ノードを直接表現することができ、レイヤ間の再帰的な近傍拡大を回避することができる。
さらに、モデルトレーニングの前に、層非依存のサンプリングとアグリゲーションをプリ計算し、トレーニングプロセスを大幅に高速化することができる。
ベンチマークデータセットの大規模な実験により、NRGCNはノード分類性能と信頼性の観点から、最先端のGCNモデルより優れていることが確認された。
関連論文リスト
- Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Deep Graph Neural Networks via Flexible Subgraph Aggregation [50.034313206471694]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習し、近隣情報を集約することでノードの表現を学ぶ。
本稿では,サブグラフアグリゲーションの観点から,GNNの表現力を評価する。
サブグラフアグリゲーションの異なるホップをより柔軟に活用できるサンプリングベースノードレベル残余モジュール(SNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - Flattened Graph Convolutional Networks For Recommendation [18.198536511983452]
本稿では,既存のモデルに比べて非常に少ない複雑さで優れた性能を達成できるフラット化GCN(FlatGCN)モデルを提案する。
まず,1つの平坦なGCN層を用いて周辺情報を集約する簡易かつ強力なGCNアーキテクチャを提案する。
次に,隣り合うノード間の相関を計測し,最も価値のある隣人を選択するための情報的隣人-infomaxサンプリング手法を提案する。
第3に,最終層に階層的近傍表現を組み立てることで,学習した表現の表現性を向上する層アンサンブル手法を提案する。
論文 参考訳(メタデータ) (2022-09-25T12:53:50Z) - Action Recognition with Kernel-based Graph Convolutional Networks [14.924672048447338]
learning graph convolutional networks(gcns)は、ディープラーニングを任意の非正規ドメインに一般化することを目的としている。
再生カーネルヒルベルト空間(RKHS)における空間グラフ畳み込みを実現する新しいGCNフレームワークを提案する。
gcnモデルの特長は、学習グラフフィルタの受容野のノードと入力グラフのノードを明示的に認識せずに畳み込みを実現する能力にも関係しています。
論文 参考訳(メタデータ) (2020-12-28T11:02:51Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - MG-GCN: Fast and Effective Learning with Mix-grained Aggregators for
Training Large Graph Convolutional Networks [20.07942308916373]
グラフ畳み込みネットワーク(GCN)は、隣人層の情報を層ごとに集約することでノードの埋め込みを生成する。
GCNの高計算とメモリコストにより、大きなグラフのトレーニングが不可能になる。
MG-GCNと呼ばれる新しいモデルでは、精度、トレーニング速度、収束速度、メモリコストの点で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-11-17T14:51:57Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。