論文の概要: Graph Attention Multi-Layer Perceptron
- arxiv url: http://arxiv.org/abs/2206.04355v1
- Date: Thu, 9 Jun 2022 08:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 13:35:21.545269
- Title: Graph Attention Multi-Layer Perceptron
- Title(参考訳): グラフ注意多層パーセプトロン
- Authors: Wentao Zhang, Ziqi Yin, Zeang Sheng, Yang Li, Wen Ouyang, Xiaosen Li,
Yangyu Tao, Zhi Yang, Bin Cui
- Abstract要約: 新たなGNNアーキテクチャ - Graph Attention Multi-Layer Perceptron (GAMLP)を提案する。
GAMLPは、グラフ知識のスケールの異なる関係をキャプチャする。
当社の大規模Tencent Videoデータセットの予測精度に関して、GATを1.3%上回っている。
- 参考スコア(独自算出の注目度): 17.669550943457768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have achieved great success in many graph-based
applications. However, the enormous size and high sparsity level of graphs
hinder their applications under industrial scenarios. Although some scalable
GNNs are proposed for large-scale graphs, they adopt a fixed $K$-hop
neighborhood for each node, thus facing the over-smoothing issue when adopting
large propagation depths for nodes within sparse regions. To tackle the above
issue, we propose a new GNN architecture -- Graph Attention Multi-Layer
Perceptron (GAMLP), which can capture the underlying correlations between
different scales of graph knowledge. We have deployed GAMLP in Tencent with the
Angel platform, and we further evaluate GAMLP on both real-world datasets and
large-scale industrial datasets. Extensive experiments on these 14 graph
datasets demonstrate that GAMLP achieves state-of-the-art performance while
enjoying high scalability and efficiency. Specifically, it outperforms GAT by
1.3\% regarding predictive accuracy on our large-scale Tencent Video dataset
while achieving up to $50\times$ training speedup. Besides, it ranks top-1 on
both the leaderboards of the largest homogeneous and heterogeneous graph (i.e.,
ogbn-papers100M and ogbn-mag) of Open Graph Benchmark.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は多くのグラフベースのアプリケーションで大きな成功を収めている。
しかし、巨大なサイズと高い空間レベルのグラフは、産業シナリオ下での応用を妨げる。
大規模グラフにはスケーラブルなgnnがいくつか提案されているが、各ノードに固定された$k$-hop近傍を採用しており、スパース領域内のノードに対する大きな伝播深さを採用する場合の過剰な問題に直面している。
本稿では,グラフ知識の異なるスケール間の相関関係を捉えるための新しいgnnアーキテクチャ,graph attention multi-layer perceptron (gamlp)を提案する。
我々は Angel プラットフォームで Tencent に GAMLP をデプロイし,実世界のデータセットと大規模産業データセットで GAMLP をさらに評価した。
これらの14のグラフデータセットに対する大規模な実験により、GAMLPは高いスケーラビリティと効率を享受しながら最先端のパフォーマンスを達成することを示した。
具体的には、当社の大規模Tencent Videoデータセットの予測精度について、GATを1.3%上回り、最大50\times$トレーニングスピードアップを達成した。
さらに、Open Graph Benchmarkの最大の均一グラフおよび異種グラフ(ogbn-papers100Mとogbn-mag)のリーダーボードのトップ1にランクインしている。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - GLISP: A Scalable GNN Learning System by Exploiting Inherent Structural
Properties of Graphs [5.410321469222541]
産業規模グラフのためのサンプリングベースGNN学習システムであるGLISPを提案する。
GLISPは、グラフパーティショナ、グラフサンプリングサービス、グラフ推論エンジンの3つのコアコンポーネントで構成されている。
実験の結果、GLISPはトレーニングと推論タスクのために既存のGNNシステムよりも最大6.53タイム、70.77タイムのスピードアップを達成した。
論文 参考訳(メタデータ) (2024-01-06T02:59:24Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Graph Mixture of Experts: Learning on Large-Scale Graphs with Explicit
Diversity Modeling [60.0185734837814]
グラフニューラルネットワーク(GNN)は、グラフデータからの学習に広く応用されている。
GNNの一般化能力を強化するため、グラフ強化のような技術を用いて、トレーニンググラフ構造を増強することが慣例となっている。
本研究では,GNNにMixture-of-Experts(MoE)の概念を導入する。
論文 参考訳(メタデータ) (2023-04-06T01:09:36Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。