論文の概要: AdaptGear: Accelerating GNN Training via Adaptive Subgraph-Level Kernels
on GPUs
- arxiv url: http://arxiv.org/abs/2305.17408v1
- Date: Sat, 27 May 2023 08:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 19:36:19.777795
- Title: AdaptGear: Accelerating GNN Training via Adaptive Subgraph-Level Kernels
on GPUs
- Title(参考訳): AdaptGear:GPU上でのAdaptive Subgraph-LevelカーネルによるGNNトレーニングの高速化
- Authors: Yangjie Zhou, Yaoxu Song, Jingwen Leng, Zihan Liu, Weihao Cui,
Zhendong Zhang, Cong Guo, Quan Chen, Li Li, Minyi Guo
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造や機能から探索および学習するための強力なツールである。
先行研究では、GNNを加速するために入力グラフの空間性を探究する提案がなされており、これは全グラフレベルまたはブロックレベルの空間性フォーマットを使用している。
スパーシティのメリットとカーネルの実行効率のバランスが取れないことを示します。
本稿では,GNNのパフォーマンスを最適化する課題に対処する,AdaptGearと呼ばれる新しいシステムを提案する。
- 参考スコア(独自算出の注目度): 26.607519045805745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are powerful tools for exploring and learning
from graph structures and features. As such, achieving high-performance
execution for GNNs becomes crucially important. Prior works have proposed to
explore the sparsity (i.e., low density) in the input graph to accelerate GNNs,
which uses the full-graph-level or block-level sparsity format. We show that
they fail to balance the sparsity benefit and kernel execution efficiency. In
this paper, we propose a novel system, referred to as AdaptGear, that addresses
the challenge of optimizing GNNs performance by leveraging kernels tailored to
the density characteristics at the subgraph level. Meanwhile, we also propose a
method that dynamically chooses the optimal set of kernels for a given input
graph. Our evaluation shows that AdaptGear can achieve a significant
performance improvement, up to $6.49 \times$ ($1.87 \times$ on average), over
the state-of-the-art works on two mainstream NVIDIA GPUs across various
datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造や機能から探索および学習するための強力なツールである。
そのため、GNNの高性能実行が重要となる。
以前の研究は、フルグラフレベルまたはブロックレベルのスパーシティフォーマットを使用するgnnを加速するために入力グラフのスパーシティ(すなわち低密度)を探索することを提案した。
私たちは、スパーシティの利点とカーネルの実行効率のバランスが取れないことを示します。
本稿では,サブグラフレベルの密度特性に合わせたカーネルを活用することで,GNNの性能を最適化する課題に対処する,AdaptGearと呼ばれる新しいシステムを提案する。
また,与えられた入力グラフに対して最適なカーネル群を動的に選択する手法を提案する。
我々の評価によると、AdaptGearは、さまざまなデータセットにわたる2つのメインストリームのNVIDIA GPU上での最先端の作業よりも、最大6.49 \times$(1.87 \times$)の大幅なパフォーマンス向上を実現している。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - Efficient Heterogeneous Graph Learning via Random Projection [65.65132884606072]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Cached Operator Reordering: A Unified View for Fast GNN Training [24.917363701638607]
グラフニューラルネットワーク(GNN)は、構造化グラフデータを扱う強力なツールであり、ノード分類、グラフ分類、クラスタリングといったタスクに対処する。
しかし、GNN計算のスパース性は、従来のディープニューラルネットワークと比較してパフォーマンス最適化に新たな課題をもたらす。
GNN計算,I/O,メモリの統一的なビューを提供することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2023-08-23T12:27:55Z) - GPN: A Joint Structural Learning Framework for Graph Neural Networks [36.38529113603987]
グラフ構造と下流タスクを同時に学習するGNNベースの共同学習フレームワークを提案する。
本手法は,この課題を解決するためのGNNベースの二段階最適化フレームワークである。
論文 参考訳(メタデータ) (2022-05-12T09:06:04Z) - BGL: GPU-Efficient GNN Training by Optimizing Graph Data I/O and
Preprocessing [0.0]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワーク(DNN)の成功を非ユークリッドグラフデータに拡張した。
既存のシステムは、数十億のノードとエッジを持つ巨大なグラフをGPUでトレーニングする非効率である。
本稿では,ボトルネックに対処するための分散GNN学習システムであるBGLを提案する。
論文 参考訳(メタデータ) (2021-12-16T00:37:37Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。