論文の概要: Characterizing and Understanding Distributed GNN Training on GPUs
- arxiv url: http://arxiv.org/abs/2204.08150v1
- Date: Mon, 18 Apr 2022 03:47:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 17:07:26.491257
- Title: Characterizing and Understanding Distributed GNN Training on GPUs
- Title(参考訳): GPUを用いた分散GNNトレーニングの特性と理解
- Authors: Haiyang Lin, Mingyu Yan, Xiaocheng Yang, Mo Zou, Wenming Li, Xiaochun
Ye, Dongrui Fan
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフを学習する上で有効であるとして、多くの領域において強力なモデルであることが実証されている。
大規模グラフに対するGNNトレーニングをスケールするために、分散トレーニングが広く採用されている。
- 参考スコア(独自算出の注目度): 2.306379679349986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural network (GNN) has been demonstrated to be a powerful model in
many domains for its effectiveness in learning over graphs. To scale GNN
training for large graphs, a widely adopted approach is distributed training
which accelerates training using multiple computing nodes. Maximizing the
performance is essential, but the execution of distributed GNN training remains
preliminarily understood. In this work, we provide an in-depth analysis of
distributed GNN training on GPUs, revealing several significant observations
and providing useful guidelines for both software optimization and hardware
optimization.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフを学習する上で有効であるとして、多くの領域において強力なモデルであることが実証されている。
大規模グラフに対するgnnトレーニングのスケールアップには,複数の計算ノードを用いたトレーニングを高速化する分散トレーニングが広く採用されている。
パフォーマンスの最大化は不可欠だが、分散GNNトレーニングの実行は、まだ事前に理解されている。
本稿では,gpu上での分散gnnトレーニングの詳細な分析を行い,いくつかの重要な観察結果を明らかにし,ソフトウェア最適化とハードウェア最適化の両方に有用なガイドラインを提供する。
関連論文リスト
- Characterizing and Understanding HGNN Training on GPUs [9.579848162902628]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、レコメンデーションシステムや医療分析など、多くの現実世界の領域で広く採用されている。
HGNNトレーニングの効率を高めるためには、トレーニングプロセス内の実行セマンティクスとパターンを特徴づけて分析し、パフォーマンスボトルネックを特定することが不可欠である。
論文 参考訳(メタデータ) (2024-07-16T14:45:46Z) - Tango: rethinking quantization for graph neural network training on GPUs [13.34630395496697]
グラフニューラルネットワーク(GNN)は、重要なグラフ関連タスクにおける優れたパフォーマンスのために、ますます人気が高まっている。
量子化はGNN計算の高速化に広く利用されているが、量子化トレーニングは前例のない課題に直面している。
本稿では、GPU上でのグラフニューラルネットワークトレーニングにおける量子化の課題と機会を再考するTangoを紹介する。
論文 参考訳(メタデータ) (2023-08-02T00:51:37Z) - A Comprehensive Survey on Distributed Training of Graph Neural Networks [59.785830738482474]
グラフニューラルネットワーク(GNN)は、幅広いアプリケーション分野において強力なアルゴリズムモデルであることが示されている。
GNNトレーニングを大規模かつ継続的なグラフにスケールアップするために、最も有望なソリューションは分散トレーニングである。
分散GNNトレーニングに関する研究の規模は、非常に広範であり、出版のペースは極めて速い。
論文 参考訳(メタデータ) (2022-11-10T06:22:12Z) - Characterizing the Efficiency of Graph Neural Network Frameworks with a
Magnifying Glass [10.839902229218577]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ関連学習タスクの成功により、大きな注目を集めている。
近年のGNNは,大規模グラフ上でのGNNのミニバッチトレーニングのために,異なるグラフサンプリング手法を用いて開発されている。
グリーンコンピューティングの観点から、フレームワークがどの程度"エコフレンドリー"であるかは不明だ。
論文 参考訳(メタデータ) (2022-11-06T04:22:19Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。