論文の概要: A Distributed Training Algorithm of Generative Adversarial Networks with
Quantized Gradients
- arxiv url: http://arxiv.org/abs/2010.13359v1
- Date: Mon, 26 Oct 2020 06:06:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 20:08:17.169583
- Title: A Distributed Training Algorithm of Generative Adversarial Networks with
Quantized Gradients
- Title(参考訳): 量子化勾配を用いた生成逆数ネットワークの分散学習アルゴリズム
- Authors: Xiaojun Chen and Shu Yang and Li Shen and Xuanrong Pang
- Abstract要約: 本稿では,量子化勾配を用いた分散GAN学習アルゴリズムDQGANを提案する。
この新しい方法は、OMDアルゴリズムと呼ばれる特定の単一マシンアルゴリズムに基づいてGANを訓練し、一般的な$delta$-approximate圧縮器を満たす任意の勾配圧縮手法に適用できる。
理論的には、DQGANアルゴリズムの1次定常点への非漸近収束を確立し、提案アルゴリズムが線形高速化を実現することを示す。
- 参考スコア(独自算出の注目度): 8.202072658184166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training generative adversarial networks (GAN) in a distributed fashion is a
promising technology since it is contributed to training GAN on a massive of
data efficiently in real-world applications. However, GAN is known to be
difficult to train by SGD-type methods (may fail to converge) and the
distributed SGD-type methods may also suffer from massive amount of
communication cost. In this paper, we propose a {distributed GANs training
algorithm with quantized gradient, dubbed DQGAN,} which is the first
distributed training method with quantized gradient for GANs. The new method
trains GANs based on a specific single machine algorithm called Optimistic
Mirror Descent (OMD) algorithm, and is applicable to any gradient compression
method that satisfies a general $\delta$-approximate compressor. The
error-feedback operation we designed is used to compensate for the bias caused
by the compression, and moreover, ensure the convergence of the new method.
Theoretically, we establish the non-asymptotic convergence of {DQGAN} algorithm
to first-order stationary point, which shows that the proposed algorithm can
achieve a linear speedup in the parameter server model. Empirically, our
experiments show that our {DQGAN} algorithm can reduce the communication cost
and save the training time with slight performance degradation on both
synthetic and real datasets.
- Abstract(参考訳): GAN(Generative Adversarial Network)を分散的にトレーニングすることは有望な技術である。
しかし、ganはsgd型手法では訓練が困難であることが知られており(収束に失敗しうる)、分散sgd型方式も通信コストの増大に苦しむことがある。
本稿では,DQGANと呼ばれる量子化勾配を持つ分散GAN学習アルゴリズムを提案する。
この新しい方法は、楽観的ミラー降下(omd)アルゴリズムと呼ばれる特定の単一機械アルゴリズムに基づいてganを訓練し、一般的な$\delta$-approximate compressorを満たす任意の勾配圧縮法に適用できる。
私たちが設計したエラーフィードバック操作は、圧縮によるバイアスを補償するために使用され、さらに、新しいメソッドの収束を確実にする。
理論的には、DQGANアルゴリズムの1次定常点への非漸近収束を確立し、パラメータサーバモデルにおいて、提案アルゴリズムが線形高速化を実現することを示す。
実験の結果, {dqgan} アルゴリズムは合成データと実データの両方において,わずかな性能低下で通信コストを削減し,トレーニング時間を節約できることがわかった。
関連論文リスト
- Flattened one-bit stochastic gradient descent: compressed distributed optimization with controlled variance [55.01966743652196]
パラメータ・サーバ・フレームワークにおける圧縮勾配通信を用いた分散勾配降下(SGD)のための新しいアルゴリズムを提案する。
平坦な1ビット勾配勾配勾配法(FO-SGD)は2つの単純なアルゴリズムの考え方に依存している。
論文 参考訳(メタデータ) (2024-05-17T21:17:27Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - On Accelerating Distributed Convex Optimizations [0.0]
本稿では,分散マルチエージェント凸最適化問題について検討する。
提案アルゴリズムは, 従来の勾配偏光法よりも収束率を向上し, 線形収束することを示す。
実ロジスティック回帰問題の解法として,従来の分散アルゴリズムと比較して,アルゴリズムの性能が優れていることを示す。
論文 参考訳(メタデータ) (2021-08-19T13:19:54Z) - Practical Convex Formulation of Robust One-hidden-layer Neural Network
Training [12.71266194474117]
本研究では,一層型スカラーアウトプット完全接続型ReLULUニューラルネットワークのトレーニングを,有限次元凸プログラムとして再構成可能であることを示す。
我々は「敵の訓練」問題を効率的に解くために凸最適化手法を導出する。
本手法は二項分類と回帰に応用でき、現在の対角訓練法に代わる手段を提供する。
論文 参考訳(メタデータ) (2021-05-25T22:06:27Z) - An Efficient Statistical-based Gradient Compression Technique for
Distributed Training Systems [77.88178159830905]
Sparsity-Inducing Distribution-based Compression (SIDCo) は閾値に基づくスペーシフィケーションスキームであり、DGCと同等のしきい値推定品質を享受する。
SIDCoは,非圧縮ベースライン,Topk,DGC圧縮機と比較して,最大で41:7%,7:6%,1:9%の速度でトレーニングを高速化する。
論文 参考訳(メタデータ) (2021-01-26T13:06:00Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - A Hybrid-Order Distributed SGD Method for Non-Convex Optimization to
Balance Communication Overhead, Computational Complexity, and Convergence
Rate [28.167294398293297]
通信負荷の少ない分散勾配降下法(SGD)を提案する。
各イテレーションにおける計算複雑性を低減するために、ワーカノードは、方向微分をゼロ階勾配推定で近似する。
論文 参考訳(メタデータ) (2020-03-27T14:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。