論文の概要: An Experimental Comparison of Partitioning Strategies for Distributed
Graph Neural Network Training
- arxiv url: http://arxiv.org/abs/2308.15602v1
- Date: Tue, 29 Aug 2023 19:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 15:32:00.166056
- Title: An Experimental Comparison of Partitioning Strategies for Distributed
Graph Neural Network Training
- Title(参考訳): 分散グラフニューラルネットワークトレーニングにおける分割戦略の実験的比較
- Authors: Nikolai Merkel, Daniel Stoll, Ruben Mayer, Hans-Arno Jacobsen
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ構造化データから学習可能な深層学習の領域として注目されている。
本稿では,分散GNN学習におけるグラフ分割の有効性について検討する。
- 参考スコア(独自算出の注目度): 14.588837832182026
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently, graph neural networks (GNNs) have gained much attention as a
growing area of deep learning capable of learning on graph-structured data.
However, the computational and memory requirements for training GNNs on
large-scale graphs can exceed the capabilities of single machines or GPUs,
making distributed GNN training a promising direction for large-scale GNN
training. A prerequisite for distributed GNN training is to partition the input
graph into smaller parts that are distributed among multiple machines of a
compute cluster. Although graph partitioning has been extensively studied with
regard to graph analytics and graph databases, its effect on GNN training
performance is largely unexplored.
In this paper, we study the effectiveness of graph partitioning for
distributed GNN training. Our study aims to understand how different factors
such as GNN parameters, mini-batch size, graph type, features size, and
scale-out factor influence the effectiveness of graph partitioning. We conduct
experiments with two different GNN systems using vertex and edge partitioning.
We found that graph partitioning is a crucial pre-processing step that can
heavily reduce the training time and memory footprint. Furthermore, our results
show that invested partitioning time can be amortized by reduced GNN training,
making it a relevant optimization.
- Abstract(参考訳): 近年,グラフニューラルネットワーク(GNN)は,グラフ構造化データから学習可能な深層学習の領域として注目されている。
しかし、大規模グラフ上でGNNをトレーニングするための計算とメモリの要求は、単一のマシンやGPUの能力を超え、分散GNNトレーニングが大規模GNNトレーニングの有望な方向となる。
分散GNNトレーニングの前提条件は、入力グラフを計算クラスタの複数のマシンに分散する小さな部分に分割することである。
グラフのパーティショニングはグラフ解析やグラフデータベースに関して広く研究されているが、GNNのトレーニング性能への影響は明らかにされていない。
本稿では,分散GNN学習におけるグラフ分割の有効性について検討する。
本研究の目的は,GNNパラメータ,ミニバッチサイズ,グラフタイプ,特徴量,スケールアウト係数などの異なる要因が,グラフ分割の有効性に与える影響を理解することである。
我々は頂点と辺分割を用いた2つの異なるGNNシステムによる実験を行った。
グラフ分割はトレーニング時間とメモリフットプリントを大幅に削減できる重要な前処理ステップであることがわかった。
さらに,本研究の結果から,GNNトレーニングの短縮による分割時間短縮が実現し,適切な最適化が可能となった。
関連論文リスト
- CATGNN: Cost-Efficient and Scalable Distributed Training for Graph Neural Networks [7.321893519281194]
既存の分散システムは、グラフパーティショニングのためにメモリ内のグラフ全体をロードします。
低コストでスケーラブルな分散GNNトレーニングシステムであるCATGNNを提案する。
また、分散GNNトレーニングのためのSPRingという新しいストリーミング分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-02T20:55:39Z) - GLISP: A Scalable GNN Learning System by Exploiting Inherent Structural
Properties of Graphs [5.410321469222541]
産業規模グラフのためのサンプリングベースGNN学習システムであるGLISPを提案する。
GLISPは、グラフパーティショナ、グラフサンプリングサービス、グラフ推論エンジンの3つのコアコンポーネントで構成されている。
実験の結果、GLISPはトレーニングと推論タスクのために既存のGNNシステムよりも最大6.53タイム、70.77タイムのスピードアップを達成した。
論文 参考訳(メタデータ) (2024-01-06T02:59:24Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Characterizing and Understanding Distributed GNN Training on GPUs [2.306379679349986]
グラフニューラルネットワーク(GNN)は、グラフを学習する上で有効であるとして、多くの領域において強力なモデルであることが実証されている。
大規模グラフに対するGNNトレーニングをスケールするために、分散トレーニングが広く採用されている。
論文 参考訳(メタデータ) (2022-04-18T03:47:28Z) - BGL: GPU-Efficient GNN Training by Optimizing Graph Data I/O and
Preprocessing [0.0]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワーク(DNN)の成功を非ユークリッドグラフデータに拡張した。
既存のシステムは、数十億のノードとエッジを持つ巨大なグラフをGPUでトレーニングする非効率である。
本稿では,ボトルネックに対処するための分散GNN学習システムであるBGLを提案する。
論文 参考訳(メタデータ) (2021-12-16T00:37:37Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。