論文の概要: Fine-tuning Language Models over Slow Networks using Activation
Compression with Guarantees
- arxiv url: http://arxiv.org/abs/2206.01299v1
- Date: Thu, 2 Jun 2022 20:49:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 15:25:13.559135
- Title: Fine-tuning Language Models over Slow Networks using Activation
Compression with Guarantees
- Title(参考訳): 保証付きアクティベーション圧縮を用いた低速ネットワーク上の微調整言語モデル
- Authors: Jue Wang, Binhang Yuan, Luka Rimanic, Yongjun He, Tri Dao, Beidi Chen,
Christopher Re, Ce Zhang
- Abstract要約: 我々は、AC-SGDと最先端勾配圧縮アルゴリズムを組み合わせることで、"エンドツーエンド圧縮"を可能にすることを示す。
AC-SGDは、モデル品質を犠牲にすることなく、遅いネットワークで最大4.3倍のエンドツーエンドのスピードアップを提供する。
- 参考スコア(独自算出の注目度): 33.38465345409054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Communication compression is a crucial technique for modern distributed
learning systems to alleviate their communication bottlenecks over slower
networks. Despite recent intensive studies of gradient compression for data
parallel-style training, compressing the activations for models trained with
pipeline parallelism is still an open problem. In this paper, we propose
AC-SGD, a novel activation compression algorithm for communication-efficient
pipeline parallelism training over slow networks. Different from previous
efforts in activation compression, instead of compressing activation values
directly, AC-SGD compresses the changes of the activations. This allows us to
show, to the best of our knowledge for the first time, that one can still
achieve $O(1/\sqrt{T})$ convergence rate for non-convex objectives under
activation compression, without making assumptions on gradient unbiasedness
that do not hold for deep learning models with non-linear activation
functions.We then show that AC-SGD can be optimized and implemented
efficiently, without additional end-to-end runtime overhead.We evaluated AC-SGD
to fine-tune language models with up to 1.5 billion parameters, compressing
activations to 2-4 bits.AC-SGD provides up to 4.3X end-to-end speed-up in
slower networks, without sacrificing model quality. Moreover, we also show that
AC-SGD can be combined with state-of-the-art gradient compression algorithms to
enable "end-to-end communication compression: All communications between
machines, including model gradients, forward activations, and backward
gradients are compressed into lower precision.This provides up to 4.9X
end-to-end speed-up, without sacrificing model quality.
- Abstract(参考訳): 通信圧縮は、遅いネットワーク上の通信ボトルネックを軽減するために、現代の分散学習システムにとって重要な技術である。
近年、データ並列型トレーニングのための勾配圧縮の研究が集中的に行われているが、パイプライン並列性で訓練されたモデルのアクティベーションを圧縮することは依然として未解決の問題である。
本稿では,通信効率のよいパイプライン並列化学習のための新しいアクティベーション圧縮アルゴリズムAC-SGDを提案する。
以前のアクティベーション圧縮の取り組みとは異なり、アクティベーション値を直接圧縮するのではなく、AC-SGDはアクティベーションの変化を圧縮する。
This allows us to show, to the best of our knowledge for the first time, that one can still achieve $O(1/\sqrt{T})$ convergence rate for non-convex objectives under activation compression, without making assumptions on gradient unbiasedness that do not hold for deep learning models with non-linear activation functions.We then show that AC-SGD can be optimized and implemented efficiently, without additional end-to-end runtime overhead.We evaluated AC-SGD to fine-tune language models with up to 1.5 billion parameters, compressing activations to 2-4 bits.AC-SGD provides up to 4.3X end-to-end speed-up in slower networks, without sacrificing model quality.
さらに,ac-sgdを最先端の勾配圧縮アルゴリズムと組み合わせることで,"エンドツーエンド通信圧縮"を可能にすることを示す。モデル勾配,フォワードアクティベーション,後方勾配を含むマシン間の通信はすべて,モデル品質を犠牲にすることなく,最大4.9倍のエンドツーエンド速度アップを提供する。
関連論文リスト
- Accelerating Large Language Model Training with Hybrid GPU-based Compression [3.204387803072905]
MPIライブラリはメッセージサイズを大幅に削減し、相互接続帯域幅を活用することが証明されている。
分散大言語モデル(LLM)学習における圧縮支援型MPI集団の有効性について検討した。
論文 参考訳(メタデータ) (2024-09-04T04:05:30Z) - Token Compensator: Altering Inference Cost of Vision Transformer without Re-Tuning [63.43972993473501]
視覚変換器(ViT)の訓練と推論を高速化するトークン圧縮
しかし、下流タスクに適用した場合、圧縮度はトレーニングと推論の段階で不一致となる。
本稿では,2段階間の圧縮度を分離するモデル演算フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T10:36:43Z) - Accelerating Communication in Deep Learning Recommendation Model Training with Dual-Level Adaptive Lossy Compression [10.233937665979694]
DLRMは最先端のレコメンデーションシステムモデルであり、様々な業界アプリケーションで広く採用されている。
このプロセスの重大なボトルネックは、すべてのデバイスから埋め込みデータを集めるのに必要な全通信に時間を要することだ。
本稿では,通信データサイズを削減し,DLRMトレーニングを高速化するために,エラーバウンドの損失圧縮を利用する手法を提案する。
論文 参考訳(メタデータ) (2024-07-05T05:55:18Z) - Communication-Efficient Distributed Learning with Local Immediate Error
Compensation [95.6828475028581]
本稿では,局所的即時誤差補償SGD (LIEC-SGD) 最適化アルゴリズムを提案する。
LIEC-SGDは、コンバージェンスレートまたは通信コストのいずれにおいても、以前の研究よりも優れている。
論文 参考訳(メタデータ) (2024-02-19T05:59:09Z) - Activations and Gradients Compression for Model-Parallel Training [85.99744701008802]
モデル並列分散トレーニングセットアップにおけるアクティベーションと勾配の同時圧縮が収束に与える影響について検討する。
グラデーションはアクティベーションよりも軽度な圧縮速度を必要とする。
実験では、TopKでトレーニングされたモデルが、推論中に圧縮も適用された場合にのみ正常に動作することが示されている。
論文 参考訳(メタデータ) (2024-01-15T15:54:54Z) - GraVAC: Adaptive Compression for Communication-Efficient Distributed DL
Training [0.0]
分散データ並列(DDP)トレーニングは、複数のデバイスがデータのサブセットをトレーニングし、アップデートを集約してグローバルに共有するモデルを生成することにより、アプリケーション全体のスループットを向上させる。
GraVACは、モデル進捗を評価し、圧縮に関連する情報損失を評価することで、トレーニング全体を通して圧縮係数を動的に調整するフレームワークである。
静的圧縮係数を使用するのとは対照的に、GraVACはResNet101、VGG16、LSTMのエンドツーエンドのトレーニング時間をそれぞれ4.32x、1.95x、6.67x削減する。
論文 参考訳(メタデータ) (2023-05-20T14:25:17Z) - L-GreCo: Layerwise-Adaptive Gradient Compression for Efficient and
Accurate Deep Learning [24.712888488317816]
トレーニング中にモデルの層をまたいだ圧縮の度合いを動的に適用するためのフレームワークを提供する。
我々のフレームワークはL-GreCoと呼ばれ、モデル層に対する最適圧縮パラメータを自動的に選択する適応アルゴリズムに基づいている。
論文 参考訳(メタデータ) (2022-10-31T14:37:41Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - An Efficient Statistical-based Gradient Compression Technique for
Distributed Training Systems [77.88178159830905]
Sparsity-Inducing Distribution-based Compression (SIDCo) は閾値に基づくスペーシフィケーションスキームであり、DGCと同等のしきい値推定品質を享受する。
SIDCoは,非圧縮ベースライン,Topk,DGC圧縮機と比較して,最大で41:7%,7:6%,1:9%の速度でトレーニングを高速化する。
論文 参考訳(メタデータ) (2021-01-26T13:06:00Z) - PowerGossip: Practical Low-Rank Communication Compression in
Decentralized Deep Learning [62.440827696638664]
本稿では,近隣労働者間のモデル差を直接圧縮する簡単なアルゴリズムを提案する。
中央集権的なディープラーニングのためにPowerSGDにインスパイアされたこのアルゴリズムは、パワーステップを使用して、1ビットあたりの転送情報を最大化する。
論文 参考訳(メタデータ) (2020-08-04T09:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。