論文の概要: Optimal Gradient Quantization Condition for Communication-Efficient
Distributed Training
- arxiv url: http://arxiv.org/abs/2002.11082v1
- Date: Tue, 25 Feb 2020 18:28:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:21:13.157660
- Title: Optimal Gradient Quantization Condition for Communication-Efficient
Distributed Training
- Title(参考訳): コミュニケーション効率の良い分散トレーニングのための最適勾配量子化条件
- Authors: An Xu, Zhouyuan Huo, Heng Huang
- Abstract要約: 勾配の通信は、コンピュータビジョンアプリケーションで複数のデバイスでディープニューラルネットワークをトレーニングするのに費用がかかる。
本研究は,textbfANY勾配分布に対する二値および多値勾配量子化の最適条件を導出する。
最適条件に基づいて, 偏差BinGradと非偏差ORQの2値勾配量子化と多値勾配量子化の2つの新しい量子化手法を開発した。
- 参考スコア(独自算出の注目度): 99.42912552638168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The communication of gradients is costly for training deep neural networks
with multiple devices in computer vision applications. In particular, the
growing size of deep learning models leads to higher communication overheads
that defy the ideal linear training speedup regarding the number of devices.
Gradient quantization is one of the common methods to reduce communication
costs. However, it can lead to quantization error in the training and result in
model performance degradation. In this work, we deduce the optimal condition of
both the binary and multi-level gradient quantization for \textbf{ANY} gradient
distribution. Based on the optimal condition, we develop two novel quantization
schemes: biased BinGrad and unbiased ORQ for binary and multi-level gradient
quantization respectively, which dynamically determine the optimal quantization
levels. Extensive experimental results on CIFAR and ImageNet datasets with
several popular convolutional neural networks show the superiority of our
proposed methods.
- Abstract(参考訳): 勾配の通信は、コンピュータビジョンアプリケーションで複数のデバイスでディープニューラルネットワークをトレーニングするのに費用がかかる。
特に、ディープラーニングモデルのサイズが大きくなると、通信オーバーヘッドが高くなり、デバイス数に関する理想的な線形トレーニング速度が低下する。
勾配量子化は通信コストを削減する一般的な方法の1つである。
しかし、トレーニングで量子化エラーが発生し、モデル性能が低下する可能性がある。
本研究では,二値および多値勾配量子化の最適条件を,textbf{any}勾配分布に対して推定する。
最適条件に基づき,二値および多値勾配量子化のためのバイアス付きbingradとunbiased orqの2つの新しい量子化スキームを開発し,最適量子化レベルを動的に決定する。
一般的な畳み込みニューラルネットワークを用いたcifarおよびimagenetデータセットの広範な実験結果から,提案手法の有効性が示された。
関連論文リスト
- The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Neural Networks with Quantization Constraints [111.42313650830248]
量子化学習における制約付き学習手法を提案する。
結果の問題は強い双対であり、勾配推定は不要であることを示す。
提案手法は画像分類タスクにおける競合性能を示す。
論文 参考訳(メタデータ) (2022-10-27T17:12:48Z) - Combinatorial optimization for low bit-width neural networks [23.466606660363016]
低ビット幅のニューラルネットワークは、計算資源を減らすためにエッジデバイスに展開するために広く研究されている。
既存のアプローチでは、2段階の列車・圧縮設定における勾配に基づく最適化に焦点が当てられている。
グリーディ座標降下法とこの新しい手法を組み合わせることで、二項分類タスクにおける競合精度が得られることを示す。
論文 参考訳(メタデータ) (2022-06-04T15:02:36Z) - FedDQ: Communication-Efficient Federated Learning with Descending
Quantization [5.881154276623056]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のための分散ラーニングスキームである。
FLは、大きなモデルサイズと頻繁なモデルアグリゲーションによって、重要な通信ボトルネックに悩まされる。
本稿では適応的な量子化を行うための反対のアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-05T18:56:28Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - In-Hindsight Quantization Range Estimation for Quantized Training [5.65658124285176]
従来の反復で推定した量子化範囲を用いて,現在を数値化する動的量子化手法であるin-hindsight range推定法を提案する。
今回のアプローチでは,ニューラルネットワークアクセラレータによる最小限のハードウェアサポートのみを必要としながら,勾配とアクティベーションの高速静的量子化を可能にする。
量子化範囲の推定のためのドロップイン代替として意図されており、他の量子化トレーニングの進歩と併用することができる。
論文 参考訳(メタデータ) (2021-05-10T10:25:28Z) - Distribution Adaptive INT8 Quantization for Training CNNs [12.708068468737286]
本稿では,畳み込みニューラルネットワークのための新しいINT8量子化学習フレームワークを提案する。
具体的には, 層幅勾配がチャネル次元に沿って複数の分布を含むという観測に基づいて, 勾配の量子化にグラディエントベクトル化量子化を用いる。
次に、量子化誤差を最小化する際に、勾配の等級を考慮に入れ、マグニチュード対応のクリッピング戦略を導入する。
論文 参考訳(メタデータ) (2021-02-09T11:58:10Z) - Adaptive Quantization of Model Updates for Communication-Efficient
Federated Learning [75.45968495410047]
クライアントノードと中央集約サーバ間のモデル更新の通信は、連合学習において大きなボトルネックとなる。
グラディエント量子化(Gradient Quantization)は、各モデル更新間の通信に必要なビット数を削減する効果的な方法である。
通信効率と低エラーフロアを実現することを目的としたAdaFLと呼ばれる適応量子化戦略を提案する。
論文 参考訳(メタデータ) (2021-02-08T19:14:21Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。