論文の概要: RapidGNN: Energy and Communication-Efficient Distributed Training on Large-Scale Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2509.05207v1
- Date: Fri, 05 Sep 2025 16:10:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.646078
- Title: RapidGNN: Energy and Communication-Efficient Distributed Training on Large-Scale Graph Neural Networks
- Title(参考訳): RapidGNN:大規模グラフニューラルネットワークによるエネルギー・通信効率の高い分散トレーニング
- Authors: Arefin Niam, Tevfik Kosar, M S Q Zulkar Nine,
- Abstract要約: グラフニューラルネットワーク(GNN)は,エンティティ間の構造的関係を探索する上で,さまざまなタスクセットで普及している。
従来のサンプリングベースのアプローチは計算負荷を軽減するが、通信オーバーヘッドは依然として課題である。
本稿では,分散GNN学習フレームワークであるRapidGNNを提案する。
- 参考スコア(独自算出の注目度): 1.5675763601034223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have become popular across a diverse set of tasks in exploring structural relationships between entities. However, due to the highly connected structure of the datasets, distributed training of GNNs on large-scale graphs poses significant challenges. Traditional sampling-based approaches mitigate the computational loads, yet the communication overhead remains a challenge. This paper presents RapidGNN, a distributed GNN training framework with deterministic sampling-based scheduling to enable efficient cache construction and prefetching of remote features. Evaluation on benchmark graph datasets demonstrates RapidGNN's effectiveness across different scales and topologies. RapidGNN improves end-to-end training throughput by 2.46x to 3.00x on average over baseline methods across the benchmark datasets, while cutting remote feature fetches by over 9.70x to 15.39x. RapidGNN further demonstrates near-linear scalability with an increasing number of computing units efficiently. Furthermore, it achieves increased energy efficiency over the baseline methods for both CPU and GPU by 44% and 32%, respectively.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,エンティティ間の構造的関係を探索する上で,さまざまなタスクセットで普及している。
しかし、データセットの高度に連結された構造のため、大規模グラフ上でのGNNの分散トレーニングが大きな課題となっている。
従来のサンプリングベースのアプローチは計算負荷を軽減するが、通信オーバーヘッドは依然として課題である。
本稿では,分散GNNトレーニングフレームワークであるRapidGNNを提案する。
ベンチマークグラフデータセットの評価は、異なるスケールとトポロジにわたるRapidGNNの有効性を示している。
RapidGNNは、ベンチマークデータセットの平均オーバーラインメソッドでエンドツーエンドのトレーニングスループットを2.46倍から3.00倍改善し、リモート機能のフェッチを9.70倍から15.39倍に削減する。
RapidGNNはさらに、効率的な計算ユニット数の増加とともに、ニアリニアなスケーラビリティを実証している。
さらに、CPUとGPUのベースラインメソッドに対して、それぞれ44%と32%のエネルギー効率向上を実現している。
関連論文リスト
- MassiveGNN: Efficient Training via Prefetching for Massively Connected Distributed Graphs [11.026326555186333]
本稿では,現在最先端のAmazon DistDGL分散GNNフレームワーク上に,パラメータ化された連続プリフェッチと消去方式を提案する。
NERSC(National Energy Research Scientific Computing Center)のPerlmutterスーパーコンピュータでは、エンドツーエンドのトレーニング性能が15~40%向上している。
論文 参考訳(メタデータ) (2024-10-30T05:10:38Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - CDFGNN: a Systematic Design of Cache-based Distributed Full-Batch Graph Neural Network Training with Communication Reduction [7.048300785744331]
グラフニューラルネットワークトレーニングは、主にミニバッチとフルバッチのトレーニング方法に分類される。
分散クラスタでは、機能とグラデーションの頻繁なリモートアクセスが、通信オーバーヘッドを大きくします。
キャッシュベースの分散フルバッチグラフニューラルネットワークトレーニングフレームワーク(CDFGNN)を紹介する。
本結果は,CDFGNNが分散フルバッチGNNトレーニングタスクを高速化する大きな可能性を示唆している。
論文 参考訳(メタデータ) (2024-08-01T01:57:09Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。