論文の概要: Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification
- arxiv url: http://arxiv.org/abs/2211.07845v1
- Date: Tue, 15 Nov 2022 02:02:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 15:46:13.833403
- Title: Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification
- Title(参考訳): Neighborhood Convolutional Network: ノード分類のためのグラフニューラルネットワークの新しいパラダイム
- Authors: Jinsong Chen, Boyu Li, Kun He
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
- 参考スコア(独自算出の注目度): 12.062421384484812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The decoupled Graph Convolutional Network (GCN), a recent development of GCN
that decouples the neighborhood aggregation and feature transformation in each
convolutional layer, has shown promising performance for graph representation
learning. Existing decoupled GCNs first utilize a simple neural network (e.g.,
MLP) to learn the hidden features of the nodes, then propagate the learned
features on the graph with fixed steps to aggregate the information of
multi-hop neighborhoods. Despite effectiveness, the aggregation operation,
which requires the whole adjacency matrix as the input, is involved in the
model training, causing high training cost that hinders its potential on larger
graphs. On the other hand, due to the independence of node attributes as the
input, the neural networks used in decoupled GCNs are very simple, and advanced
techniques cannot be applied to the modeling. To this end, we further liberate
the aggregation operation from the decoupled GCN and propose a new paradigm of
GCN, termed Neighborhood Convolutional Network (NCN), that utilizes the
neighborhood aggregation result as the input, followed by a special
convolutional neural network tailored for extracting expressive node
representations from the aggregation input. In this way, the model could
inherit the merit of decoupled GCN for aggregating neighborhood information, at
the same time, develop much more powerful feature learning modules. A training
strategy called mask training is incorporated to further boost the model
performance. Extensive results demonstrate the effectiveness of our model for
the node classification task on diverse homophilic graphs and heterophilic
graphs.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離するGCNの最近の開発であり、グラフ表現学習において有望な性能を示している。
既存の分離GCNはまず、ノードの隠れた特徴を学習するために単純なニューラルネットワーク(例えば、MLP)を使用し、その後、複数のホップ近傍の情報を集めるための固定ステップでグラフ上の学習した特徴を伝播する。
実効性にもかかわらず、アグリゲーション操作は、入力として全ての隣接行列を必要とするが、モデルトレーニングに関係しており、大きなグラフのポテンシャルを阻害する高いトレーニングコストを引き起こす。
一方で、ノード属性を入力として独立にすることで、分離gcnで使用されるニューラルネットワークは非常に単純であり、モデリングに高度な技術を適用することはできない。
この目的のために、分離されたGCNからアグリゲーション操作をさらに解放し、アグリゲーション入力から表現的ノード表現を抽出するように設計された特別な畳み込みニューラルネットワークにより、近隣のアグリゲーション結果を入力として利用するGCN(Neighborhood Convolutional Network, NCN)と呼ばれる新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
マスクトレーニングと呼ばれるトレーニング戦略が組み込まれ、モデルのパフォーマンスをさらに向上させる。
その結果,多種多様同好グラフと異好グラフにおけるノード分類タスクに対するモデルの有効性が示された。
関連論文リスト
- Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Non-Recursive Graph Convolutional Networks [33.459371861932574]
非再帰グラフ畳み込みネットワーク(NRGCN)と呼ばれる新しいアーキテクチャを提案し、GCNのトレーニング効率と学習パフォーマンスの両方を改善します。
NRGCNは、内部層凝集と層非依存サンプリングに基づいて、各ノードの隣人のホップを表す。
このようにして、各ノードは、隣人の各ホップから独立して抽出された情報を連結することで直接表現することができる。
論文 参考訳(メタデータ) (2021-05-09T08:12:18Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - CatGCN: Graph Convolutional Networks with Categorical Node Features [99.555850712725]
CatGCNはグラフ学習に適したノード機能である。
エンドツーエンドでCatGCNを訓練し、半教師付きノード分類でそれを実証する。
論文 参考訳(メタデータ) (2020-09-11T09:25:17Z) - CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning [19.432449825536423]
教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-03T13:57:18Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - An Uncoupled Training Architecture for Large Graph Learning [20.784230322205232]
グラフデータをグリッドライクなデータに埋め込むための、柔軟なアンカップリングトレーニングフレームワークであるNode2Gridsを紹介します。
各ノードの影響を次々にランク付けすることで、Node2Gridsは最も影響力のある1階と、中央ノードの融合情報を持つ2階の隣人を選択する。
下流タスクの効率をさらに向上するために、単純なCNNベースのニューラルネットワークを使用して、マッピングされたグリッドのようなデータから重要な情報をキャプチャする。
論文 参考訳(メタデータ) (2020-03-21T11:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。