論文の概要: AdaptGear: Accelerating GNN Training via Adaptive Subgraph-Level Kernels
on GPUs
- arxiv url: http://arxiv.org/abs/2305.17408v1
- Date: Sat, 27 May 2023 08:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 19:36:19.777795
- Title: AdaptGear: Accelerating GNN Training via Adaptive Subgraph-Level Kernels
on GPUs
- Title(参考訳): AdaptGear:GPU上でのAdaptive Subgraph-LevelカーネルによるGNNトレーニングの高速化
- Authors: Yangjie Zhou, Yaoxu Song, Jingwen Leng, Zihan Liu, Weihao Cui,
Zhendong Zhang, Cong Guo, Quan Chen, Li Li, Minyi Guo
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造や機能から探索および学習するための強力なツールである。
先行研究では、GNNを加速するために入力グラフの空間性を探究する提案がなされており、これは全グラフレベルまたはブロックレベルの空間性フォーマットを使用している。
スパーシティのメリットとカーネルの実行効率のバランスが取れないことを示します。
本稿では,GNNのパフォーマンスを最適化する課題に対処する,AdaptGearと呼ばれる新しいシステムを提案する。
- 参考スコア(独自算出の注目度): 26.607519045805745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are powerful tools for exploring and learning
from graph structures and features. As such, achieving high-performance
execution for GNNs becomes crucially important. Prior works have proposed to
explore the sparsity (i.e., low density) in the input graph to accelerate GNNs,
which uses the full-graph-level or block-level sparsity format. We show that
they fail to balance the sparsity benefit and kernel execution efficiency. In
this paper, we propose a novel system, referred to as AdaptGear, that addresses
the challenge of optimizing GNNs performance by leveraging kernels tailored to
the density characteristics at the subgraph level. Meanwhile, we also propose a
method that dynamically chooses the optimal set of kernels for a given input
graph. Our evaluation shows that AdaptGear can achieve a significant
performance improvement, up to $6.49 \times$ ($1.87 \times$ on average), over
the state-of-the-art works on two mainstream NVIDIA GPUs across various
datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造や機能から探索および学習するための強力なツールである。
そのため、GNNの高性能実行が重要となる。
以前の研究は、フルグラフレベルまたはブロックレベルのスパーシティフォーマットを使用するgnnを加速するために入力グラフのスパーシティ(すなわち低密度)を探索することを提案した。
私たちは、スパーシティの利点とカーネルの実行効率のバランスが取れないことを示します。
本稿では,サブグラフレベルの密度特性に合わせたカーネルを活用することで,GNNの性能を最適化する課題に対処する,AdaptGearと呼ばれる新しいシステムを提案する。
また,与えられた入力グラフに対して最適なカーネル群を動的に選択する手法を提案する。
我々の評価によると、AdaptGearは、さまざまなデータセットにわたる2つのメインストリームのNVIDIA GPU上での最先端の作業よりも、最大6.49 \times$(1.87 \times$)の大幅なパフォーマンス向上を実現している。
関連論文リスト
- Diffusing to the Top: Boost Graph Neural Networks with Minimal Hyperparameter Tuning [33.948899558876604]
グラフ条件付き潜在拡散フレームワーク(GNN-Diff)を導入し,高性能なGNNを生成する。
提案手法は,小,大,長距離グラフ上のノード分類とリンク予測という4つのグラフタスクを対象とした166の実験を通じて検証する。
論文 参考訳(メタデータ) (2024-10-08T05:27:34Z) - SiHGNN: Leveraging Properties of Semantic Graphs for Efficient HGNN Acceleration [9.85638913900595]
不均一グラフニューラルネットワーク (HGNN) は、グラフ表現学習を異種グラフ場に拡張した。
近年の研究では、医療分析やレコメンデーションシステムなど、様々な応用において優れた性能を示している。
我々は,SiHGNNと呼ばれるHGNN用の軽量ハードウェアアクセラレータを提案する。このアクセラレータはツリーベースのセマンティックグラフビルダーを組み込んで,効率的なセマンティックグラフ生成を実現し,セマンティックグラフレイアウトを最適化するための新しいグラフ再構成器を備えている。
論文 参考訳(メタデータ) (2024-08-27T14:20:21Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - GPN: A Joint Structural Learning Framework for Graph Neural Networks [36.38529113603987]
グラフ構造と下流タスクを同時に学習するGNNベースの共同学習フレームワークを提案する。
本手法は,この課題を解決するためのGNNベースの二段階最適化フレームワークである。
論文 参考訳(メタデータ) (2022-05-12T09:06:04Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。