論文の概要: SparDL: Distributed Deep Learning Training with Efficient Sparse
Communication
- arxiv url: http://arxiv.org/abs/2304.00737v2
- Date: Fri, 23 Feb 2024 15:35:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 18:37:25.666817
- Title: SparDL: Distributed Deep Learning Training with Efficient Sparse
Communication
- Title(参考訳): SparDL: 効率的なスパース通信による分散ディープラーニングトレーニング
- Authors: Minjun Zhao, Yichen Yin, Yuren Mao, Qing Liu, Lu Chen, Yunjun Gao
- Abstract要約: 本稿では,Sparse Gradient Accumulation dilemmaを扱うために,SparDLと呼ばれる新しい効率的なスパース通信フレームワークを提案する。
SparDLは、効率的なReducee-Scatterモデルに基づくSpar-Reduce-Scatterアルゴリズムを使用して、追加の通信操作なしでSGAジレンマを処理する。
そこで本研究では,Spar-All-Gatherアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 28.373677097277216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Top-k sparsification has recently been widely used to reduce the
communication volume in distributed deep learning. However, due to the Sparse
Gradient Accumulation (SGA) dilemma, the performance of top-k sparsification
still has limitations. Recently, a few methods have been put forward to handle
the SGA dilemma. Regrettably, even the state-of-the-art method suffers from
several drawbacks, e.g., it relies on an inefficient communication algorithm
and requires extra transmission steps. Motivated by the limitations of existing
methods, we propose a novel efficient sparse communication framework, called
SparDL. Specifically, SparDL uses the Spar-Reduce-Scatter algorithm, which is
based on an efficient Reduce-Scatter model, to handle the SGA dilemma without
additional communication operations. Besides, to further reduce the latency
cost and improve the efficiency of SparDL, we propose the Spar-All-Gather
algorithm. Moreover, we propose the global residual collection algorithm to
ensure fast convergence of model training. Finally, extensive experiments are
conducted to validate the superiority of SparDL.
- Abstract(参考訳): 近年,分散ディープラーニングにおける通信量削減にTop-kスペーシフィケーションが広く用いられている。
しかし、スパースグラディエント累積(SGA)ジレンマのため、トップkスペーリフィケーションの性能には制限がある。
近年,sgaジレンマを扱う手法がいくつか提案されている。
確実に、最先端の手法でさえいくつかの欠点に悩まされている。例えば、非効率な通信アルゴリズムに依存し、追加の伝送ステップを必要とする。
既存の手法の限界に乗じて,SparDLと呼ばれる新しい効率的なスパース通信フレームワークを提案する。
具体的には、SparDLは効率的なReducee-Scatterモデルに基づくSpar-Reduce-Scatterアルゴリズムを使用して、追加の通信操作なしでSGAジレンマを処理する。
また,Spar-All-Gatherアルゴリズムでは,遅延コストをさらに削減し,SparDLの効率を向上する。
さらに,モデル学習の収束性を確保するために,グローバル残差収集アルゴリズムを提案する。
最後に,SparDLの優位性を検証するため,広範な実験を行った。
関連論文リスト
- Search for Efficient Large Language Models [52.98684997131108]
大規模言語モデル(LLMs)は、人工知能研究の領域で長い間停滞してきた。
軽量プルーニング、量子化、蒸留がLLMの圧縮に取り入れられ、メモリの削減と推論の加速を狙った。
ほとんどのモデル圧縮技術は、最適アーキテクチャの探索を見越して重量最適化に重点を置いている。
論文 参考訳(メタデータ) (2024-09-25T21:32:12Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Fast and Controllable Post-training Sparsity: Learning Optimal Sparsity Allocation with Global Constraint in Minutes [33.68058313321142]
本稿では,ニューラルネットワークの疎度を制御可能な後訓練時疎度(FCPTS)フレームワークを提案する。
提案手法は,グローバルなスパシティ率への収束の保証を付加して,短時間で迅速かつ正確なスパシティ割当学習を可能にする。
論文 参考訳(メタデータ) (2024-05-09T14:47:15Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Gradient Sparsification for Efficient Wireless Federated Learning with
Differential Privacy [25.763777765222358]
フェデレートラーニング(FL)により、分散クライアントは、生データを互いに共有することなく、機械学習モデルを協調的にトレーニングできる。
モデルのサイズが大きくなるにつれて、送信帯域の制限によるトレーニングのレイテンシが低下し、個人情報が劣化すると同時に、差分プライバシ(DP)保護を使用する。
我々は、収束性能を犠牲にすることなく、トレーニング効率を向上させるために、FLフレームワーク無線チャネルのスペース化を提案する。
論文 参考訳(メタデータ) (2023-04-09T05:21:15Z) - Adaptive Top-K in SGD for Communication-Efficient Distributed Learning [14.867068493072885]
本稿では,SGDフレームワークにおける新しい適応Top-Kを提案する。
MNIST と CIFAR-10 データセットの数値結果から,SGD における適応型 Top-K アルゴリズムは,最先端の手法に比べてはるかに優れた収束率が得られることが示された。
論文 参考訳(メタデータ) (2022-10-24T18:33:35Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - Sparse Communication for Training Deep Networks [56.441077560085475]
同期勾配降下(SGD)は、ディープラーニングモデルの分散トレーニングに最もよく用いられる手法である。
このアルゴリズムでは、各ワーカーは他のワーカーと局所勾配を共有し、すべてのワーカーの平均勾配を使ってパラメータを更新する。
いくつかの圧縮スキームについて検討し、3つの重要なパラメータが性能に与える影響を同定する。
論文 参考訳(メタデータ) (2020-09-19T17:28:11Z) - Detached Error Feedback for Distributed SGD with Random Sparsification [98.98236187442258]
コミュニケーションのボトルネックは、大規模なディープラーニングにおいて重要な問題である。
非効率な分散問題に対する誤りフィードバックよりも優れた収束性を示す分散誤差フィードバック(DEF)アルゴリズムを提案する。
また、DEFよりも優れた境界を示すDEFの一般化を加速するDEFAを提案する。
論文 参考訳(メタデータ) (2020-04-11T03:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。