論文の概要: PyTorch Distributed: Experiences on Accelerating Data Parallel Training
- arxiv url: http://arxiv.org/abs/2006.15704v1
- Date: Sun, 28 Jun 2020 20:39:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 03:08:58.782936
- Title: PyTorch Distributed: Experiences on Accelerating Data Parallel Training
- Title(参考訳): PyTorch Distributed: データ並列トレーニングの高速化に関する経験
- Authors: Shen Li, Yanli Zhao, Rohan Varma, Omkar Salpekar, Pieter Noordhuis,
Teng Li, Adam Paszke, Jeff Smith, Brian Vaughan, Pritam Damania, Soumith
Chintala
- Abstract要約: PyTorchは、ディープラーニングの研究や応用で広く使われている科学計算パッケージである。
本稿では,PyTorch分散データ並列モジュールの設計,実装,評価について述べる。
- 参考スコア(独自算出の注目度): 11.393654219774444
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents the design, implementation, and evaluation of the PyTorch
distributed data parallel module. PyTorch is a widely-adopted scientific
computing package used in deep learning research and applications. Recent
advances in deep learning argue for the value of large datasets and large
models, which necessitates the ability to scale out model training to more
computational resources. Data parallelism has emerged as a popular solution for
distributed training thanks to its straightforward principle and broad
applicability. In general, the technique of distributed data parallelism
replicates the model on every computational resource to generate gradients
independently and then communicates those gradients at each iteration to keep
model replicas consistent. Despite the conceptual simplicity of the technique,
the subtle dependencies between computation and communication make it
non-trivial to optimize the distributed training efficiency. As of v1.5,
PyTorch natively provides several techniques to accelerate distributed data
parallel, including bucketing gradients, overlapping computation with
communication, and skipping gradient synchronization. Evaluations show that,
when configured appropriately, the PyTorch distributed data parallel module
attains near-linear scalability using 256 GPUs.
- Abstract(参考訳): 本稿では,PyTorch分散データ並列モジュールの設計,実装,評価について述べる。
PyTorchは、ディープラーニングの研究や応用で広く使われている科学計算パッケージである。
ディープラーニングの最近の進歩は、モデルトレーニングをより多くの計算リソースにスケールアウトする能力を必要とする大規模なデータセットと大規模なモデルの価値を論じている。
データ並列性は、その直接的な原則と幅広い適用性のおかげで、分散トレーニングの一般的なソリューションとして現れました。
一般に、分散データ並列化のテクニックは、すべての計算リソース上のモデルを複製して独立に勾配を生成し、各イテレーションでそれらの勾配を伝達してモデルの複製を一貫性を保つ。
この手法の概念的単純さにもかかわらず、計算と通信の微妙な依存関係は、分散トレーニング効率を最適化するのは簡単ではない。
v1.5以降、PyTorchは、バケット勾配、通信との重なり合う計算、スキップ勾配同期など、分散データの並列化をネイティブに高速化するいくつかの技術を提供している。
適切な設定を行うと、PyTorch分散データ並列モジュールは256GPUを使用してほぼ線形スケーラビリティを実現する。
関連論文リスト
- Partitioned Neural Network Training via Synthetic Intermediate Labels [0.0]
GPUメモリの制約は、そのような巨大なモデルをトレーニングする上で、注目すべきボトルネックになっている。
この研究は、モデルをGPU間で分割し、個々のセグメントをトレーニングするために合成中間ラベルを生成することを提唱する。
このアプローチは、モデル精度を維持しながらデータ通信を最小限に抑える、より効率的なトレーニングプロセスをもたらす。
論文 参考訳(メタデータ) (2024-03-17T13:06:29Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Does compressing activations help model parallel training? [64.59298055364336]
モデル並列性に対する圧縮法の有効性に関する実験的検討を行った。
圧縮アルゴリズムの3つの共通クラスを実装し,評価する。
我々は160以上の設定と8つの一般的なデータセットでこれらの手法を評価した。
論文 参考訳(メタデータ) (2023-01-06T18:58:09Z) - PARTIME: Scalable and Parallel Processing Over Time with Deep Neural
Networks [68.96484488899901]
PartIMEは、データが継続的にストリーミングされるたびにニューラルネットワークを高速化するように設計されたライブラリです。
PartIMEは、ストリームから利用可能になった時点で、各データサンプルの処理を開始する。
オンライン学習において、PartialIMEと古典的な非並列ニューラル計算を経験的に比較するために実験が行われる。
論文 参考訳(メタデータ) (2022-10-17T14:49:14Z) - SplitBrain: Hybrid Data and Model Parallel Deep Learning [11.63431725146897]
本稿では,ハイブリッドデータとモデル並列性をサポートする高性能分散ディープラーニングフレームワークSplitBrainを提案する。
具体的には、SplitBrainは、メモリ要求層をシャーディングしながら、計算集約的な畳み込み層を同時に配置する、層固有のパーティショニングを提供する。
その結果,データとモデル並列VGGをCIFAR-10上で最大67%のメモリ消費を節約しながら,ほぼ線形スピードアップを実現することができた。
論文 参考訳(メタデータ) (2021-12-31T06:25:38Z) - Colossal-AI: A Unified Deep Learning System For Large-Scale Parallel
Training [23.633810934134065]
Colossal-AIは、大規模モデルで最大2.76回のトレーニングスピードアップを達成することができる。
システムは、データ、パイプライン、テンソル、シーケンス並列化などの並列トレーニングメソッドをサポートする。
論文 参考訳(メタデータ) (2021-10-28T04:45:55Z) - On the Utility of Gradient Compression in Distributed Training Systems [9.017890174185872]
本稿では,勾配圧縮法の有効性を評価し,そのスケーラビリティを同期データ並列sgdの最適化実装と比較する。
意外なことに、勾配圧縮によって引き起こされる計算オーバーヘッドのため、バニラデータ並列トレーニングのネットスピードアップは、負でなくても限界である。
論文 参考訳(メタデータ) (2021-02-28T15:58:45Z) - Parallel Training of Deep Networks with Local Updates [84.30918922367442]
ローカル並列性(Local Parallelism)は、グローバルバックプロパゲーションを切り捨てられたレイヤワイズバックプロパゲーションに置き換えることで、ディープネットワーク内の個々のレイヤのトレーニングを並列化するフレームワークである。
我々は、様々なアーキテクチャセットにわたるビジョンと言語領域の両方で結果を示し、局所的並列性は特に高コンピュートなシステムにおいて有効であることを見出した。
論文 参考訳(メタデータ) (2020-12-07T16:38:45Z) - Training Recommender Systems at Scale: Communication-Efficient Model and
Data Parallelism [56.78673028601739]
通信効率のよいハイブリッドトレーニングのためのDCT(Dynamic Communication Thresholding)という圧縮フレームワークを提案する。
DCTは、それぞれDPとMPの間に、少なくとも$100times$と$20times$の通信を削減します。
最先端の産業レコメンデーションモデルのエンドツーエンドのトレーニング時間を、パフォーマンスを損なうことなく、37%改善する。
論文 参考訳(メタデータ) (2020-10-18T01:44:42Z) - Real-Time Regression with Dividing Local Gaussian Processes [62.01822866877782]
局所ガウス過程は、ガウス過程の回帰に基づく新しい、計算効率の良いモデリング手法である。
入力空間の反復的データ駆動分割により、実際にはトレーニングポイントの総数において、サブ線形計算複雑性が達成される。
実世界のデータセットに対する数値的な評価は、予測と更新の速度だけでなく、精度の点で他の最先端手法よりも有利であることを示している。
論文 参考訳(メタデータ) (2020-06-16T18:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。