論文の概要: NAGphormer: Neighborhood Aggregation Graph Transformer for Node
Classification in Large Graphs
- arxiv url: http://arxiv.org/abs/2206.04910v1
- Date: Fri, 10 Jun 2022 07:23:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:32:24.007533
- Title: NAGphormer: Neighborhood Aggregation Graph Transformer for Node
Classification in Large Graphs
- Title(参考訳): NAGphormer: 大規模グラフにおけるノード分類のための周辺アグリゲーショングラフ変換器
- Authors: Jinsong Chen, Kaiyuan Gao, Gaichao Li, Kun He
- Abstract要約: 本研究では,数百万のノードを持つ大規模グラフに対してスケーラブルなNAGphormer(Neighborhood Aggregation Graph Transformer)を提案する。
NAGphormerはHop2Tokenと呼ばれる近隣アグリゲーションモジュールによって各ノードのトークンを構成する。
6つの小さなデータセットと3つの大きなデータセットを含む、さまざまな人気のあるベンチマークで広範な実験を行います。
- 参考スコア(独自算出の注目度): 10.149586598073421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Transformers have demonstrated superiority on various graph learning
tasks in recent years. However, the complexity of existing Graph Transformers
scales quadratically with the number of nodes, making it hard to scale to
graphs with thousands of nodes. To this end, we propose a Neighborhood
Aggregation Graph Transformer (NAGphormer) that is scalable to large graphs
with millions of nodes. Before feeding the node features into the Transformer
model, NAGphormer constructs tokens for each node by a neighborhood aggregation
module called Hop2Token. For each node, Hop2Token aggregates neighborhood
features from each hop into a representation, and thereby produces a sequence
of token vectors. Subsequently, the resulting sequence of different hop
information serves as input to the Transformer model. By considering each node
as a sequence, NAGphormer could be trained in a mini-batch manner and thus
could scale to large graphs. NAGphormer further develops an attention-based
readout function so as to learn the importance of each hop adaptively. We
conduct extensive experiments on various popular benchmarks, including six
small datasets and three large datasets. The results demonstrate that
NAGphormer consistently outperforms existing Graph Transformers and mainstream
Graph Neural Networks.
- Abstract(参考訳): グラフ変換器は近年,様々なグラフ学習タスクにおいて優位性を示している。
しかし、既存のグラフトランスフォーマーの複雑さはノード数と2次的にスケールするので、数千ノードのグラフにスケールするのは困難である。
そこで我々は,数百万のノードを持つ大規模グラフに対してスケーラブルなNAGphormer(Neighborhood Aggregation Graph Transformer)を提案する。
ノード機能をTransformerモデルに入力する前に、NAGphormerはHop2Tokenと呼ばれる近隣アグリゲーションモジュールによって各ノードのトークンを構成する。
各ノードに対してHop2Tokenは、各ホップの近傍の特徴を表現に集約し、トークンベクトルのシーケンスを生成する。
その後、結果の異なるホップ情報のシーケンスがトランスフォーマーモデルへの入力となる。
各ノードをシーケンスとして考えることで、nagphormerはミニバッチ方式でトレーニングできるため、大きなグラフにスケールできる。
nagphormerはさらに注意に基づく読み出し機能を開発し、各ホップの重要性を適応的に学習する。
6つの小さなデータセットと3つの大きなデータセットを含む、さまざまな人気のあるベンチマークで広範な実験を行います。
その結果、NAGphormerは既存のGraph TransformerやメインストリームのGraph Neural Networksよりも一貫して優れていた。
関連論文リスト
- NTFormer: A Composite Node Tokenized Graph Transformer for Node Classification [11.451341325579188]
我々はNTFormerと呼ばれる新しいグラフ変換器を提案し,ノード分類問題に対処する。
Node2Parと呼ばれる新しいトークンジェネレータは、各ノードごとに異なるトークン要素を使用してさまざまなトークンシーケンスを生成する。
様々なベンチマークデータセットで行った実験は、ノード分類のための代表グラフ変換器やグラフニューラルネットワークよりもNTFormerの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-06-27T15:16:00Z) - Masked Graph Transformer for Large-Scale Recommendation [56.37903431721977]
本稿では, MGFormer という名前の効率的な Masked Graph Transformer を提案する。
実験の結果,単一注意層でもMGFormerの優れた性能が得られた。
論文 参考訳(メタデータ) (2024-05-07T06:00:47Z) - SpikeGraphormer: A High-Performance Graph Transformer with Spiking Graph Attention [1.4126245676224705]
Graph Transformerは、Graph Neural Networks(GNN)固有の制限を軽減するための、有望なソリューションとして登場した。
本稿では,SNNとグラフ変換器の統合に関する新たな知見を提案し,Spiking Graph Attention (SGA) モジュールを設計する。
SpikeGraphormerは、さまざまなデータセットにわたる既存の最先端アプローチを一貫して上回る。
論文 参考訳(メタデータ) (2024-03-21T03:11:53Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Tokenized Graph Transformer with Neighborhood Augmentation for Node
Classification in Large Graphs [11.868008619702277]
本稿では,各ノードを一連のトークンを含むシーケンスとして扱う近傍集約グラフ変換器(NAGphormer)を提案する。
Hop2Tokenは、異なるホップから異なる表現に近隣の特徴を集約し、トークンベクトルのシーケンスを1つの入力として生成する。
さらに,Hop2Tokenの出力に基づいてNrAug(Neighborhood Augmentation)と呼ばれる新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T03:29:42Z) - AGFormer: Efficient Graph Representation with Anchor-Graph Transformer [95.1825252182316]
Anchor Graph Transformer (AGFormer) と呼ばれる新しいグラフトランスアーキテクチャを提案する。
AGFormerはまずいくつかの代表アンカーを取得し、次にノード間メッセージパッシングをアンカー間メッセージパッシングプロセスとアンカー間メッセージパッシングプロセスに変換する。
いくつかのベンチマークデータセットに対する大規模な実験は、提案されたAGFormerの有効性とメリットを示している。
論文 参考訳(メタデータ) (2023-05-12T14:35:42Z) - Graph Mixture of Experts: Learning on Large-Scale Graphs with Explicit
Diversity Modeling [60.0185734837814]
グラフニューラルネットワーク(GNN)は、グラフデータからの学習に広く応用されている。
GNNの一般化能力を強化するため、グラフ強化のような技術を用いて、トレーニンググラフ構造を増強することが慣例となっている。
本研究では,GNNにMixture-of-Experts(MoE)の概念を導入する。
論文 参考訳(メタデータ) (2023-04-06T01:09:36Z) - Pure Transformers are Powerful Graph Learners [51.36884247453605]
グラフ固有の修正のない標準変換器は、理論と実践の両方において、グラフ学習において有望な結果をもたらす可能性があることを示す。
このアプローチは、理論的には、同変線形層からなる不変グラフネットワーク(2-IGN)と同程度に表現可能であることを証明している。
提案手法は,Tokenized Graph Transformer (TokenGT) を作成した。
論文 参考訳(メタデータ) (2022-07-06T08:13:06Z) - Neighbor2Seq: Deep Learning on Massive Graphs by Transforming Neighbors
to Sequences [55.329402218608365]
本研究では,各ノードの階層的近傍をシーケンスに変換するためにNeighbor2Seqを提案する。
1100万以上のノードと160億のエッジを持つ大規模グラフ上で,本手法の評価を行った。
その結果,提案手法は大規模グラフに対してスケーラブルであり,大規模グラフと中規模グラフにまたがる優れた性能を実現する。
論文 参考訳(メタデータ) (2022-02-07T16:38:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。