論文の概要: Distributed Methods with Absolute Compression and Error Compensation
- arxiv url: http://arxiv.org/abs/2203.02383v2
- Date: Sun, 29 May 2022 14:33:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 03:38:17.214940
- Title: Distributed Methods with Absolute Compression and Error Compensation
- Title(参考訳): 絶対圧縮と誤差補償を伴う分散手法
- Authors: Marina Danilova, Eduard Gorbunov
- Abstract要約: コミュニケーション圧縮はこの問題を緩和するための強力なアプローチである。
本稿では,任意のサンプリング戦略に対する絶対圧縮によるEC-SGDの解析を一般化する。
この設定では、以前知られていたものよりも私たちのレートが向上します。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed optimization methods are often applied to solving huge-scale
problems like training neural networks with millions and even billions of
parameters. In such applications, communicating full vectors, e.g.,
(stochastic) gradients, iterates, is prohibitively expensive, especially when
the number of workers is large. Communication compression is a powerful
approach to alleviating this issue, and, in particular, methods with biased
compression and error compensation are extremely popular due to their practical
efficiency. Sahu et al. (2021) propose a new analysis of Error Compensated SGD
(EC-SGD) for the class of absolute compression operators showing that in a
certain sense, this class contains optimal compressors for EC-SGD. However, the
analysis was conducted only under the so-called $(M,\sigma^2)$-bounded noise
assumption. In this paper, we generalize the analysis of EC-SGD with absolute
compression to the arbitrary sampling strategy and propose the first analysis
of Error Compensated Loopless Stochastic Variance Reduced Gradient method
(EC-LSVRG) with absolute compression for (strongly) convex problems. Our rates
improve upon the previously known ones in this setting. Numerical experiments
corroborate our theoretical findings.
- Abstract(参考訳): 分散最適化手法は、数百万から数十億のパラメータでニューラルネットワークをトレーニングするなど、大規模な問題を解決するためによく用いられる。
このようなアプリケーションでは、例えば(確率的な)勾配(英語版)のような完全なベクトルの通信は、特に労働者の数が大きければ、非常に高価である。
通信圧縮はこの問題を軽減するための強力なアプローチであり、特にバイアスド圧縮とエラー補償の手法は実用的効率のために非常に人気がある。
Sahu et al. (2021) は、ある意味では、このクラスがEC-SGDの最適圧縮器を含むことを示す絶対圧縮演算子のクラスに対して、エラー補償SGD (EC-SGD) の新しい解析法を提案する。
しかし、この分析はいわゆる$(M,\sigma^2)$-bounded noise assumptionの下でのみ行われた。
本稿では、任意のサンプリング戦略に対する絶対圧縮によるEC-SGDの解析を一般化し、(強く)凸問題に対する絶対圧縮を伴う誤り補償ループレス確率変数低減法(EC-LSVRG)の最初の解析を提案する。
われわれのレートは、この設定で既に知られている値で向上する。
数値実験は理論的な結果を裏付けるものだ。
関連論文リスト
- Optimal Compression of Unit Norm Vectors in the High Distortion Regime [30.6205706348233]
本稿では,単位ノルムベクトルを最小ビット数に圧縮する手法について検討する。
本研究は, バイアス圧縮法と非バイアス圧縮法の両方を考察し, 最適圧縮率を決定する。
結果は新しいものと既知のものが混在しているが、完全性のためにこの論文にまとめられている。
論文 参考訳(メタデータ) (2023-07-16T04:23:57Z) - Shifted Compression Framework: Generalizations and Improvements [2.2147691173934967]
コミュニケーションは、大規模な機械学習モデルの分散トレーニングにおける重要なボトルネックの1つだ。
勾配やモデルのような交換された情報のロッシー圧縮は、この問題を緩和する最も効果的な手段の1つである。
論文 参考訳(メタデータ) (2022-06-21T15:00:04Z) - EF-BV: A Unified Theory of Error Feedback and Variance Reduction
Mechanisms for Biased and Unbiased Compression in Distributed Optimization [7.691755449724637]
分散最適化と学習では、異なるコンピュータユニット間の通信がボトルネックとなることが多い。
圧縮演算子には2つのクラスがあり、それを利用するアルゴリズムは別々である。
本稿では,特にDIANAとEF21を復元する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-09T10:44:23Z) - Federated Random Reshuffling with Compression and Variance Reduction [0.0]
ランダムリシャッフル(RR)は、経験的リスク最小化を通じて教師付き機械学習モデルをトレーニングするための非常に一般的な方法である。
組み込みであり、しばしば標準の機械学習ソフトウェアでデフォルトとして設定される。
我々はFedRRをさらに改善するための3つの新しいアルゴリズムを紹介した。1つはシャッフルによる分散を、もう1つは圧縮による分散をモデル化する。
論文 参考訳(メタデータ) (2022-05-08T16:46:11Z) - Unified Multivariate Gaussian Mixture for Efficient Neural Image
Compression [151.3826781154146]
先行変数と超優先度を持つ潜伏変数は、変動画像圧縮において重要な問題である。
ベクトル化された視点で潜伏変数を観察する際、相関関係や相関関係は存在する。
当社のモデルでは、速度歪曲性能が向上し、圧縮速度が3.18倍に向上した。
論文 参考訳(メタデータ) (2022-03-21T11:44:17Z) - Permutation Compressors for Provably Faster Distributed Nonconvex
Optimization [68.8204255655161]
本稿では,Gorbunov et al (2021) の MARINA 法が,理論的な通信複雑性の観点から最先端の手法とみなすことができることを示す。
MARINAの理論は、古典的な独立圧縮機設定を超えて、潜在的にエミュレートされた圧縮機の理論を支持するものである。
論文 参考訳(メタデータ) (2021-10-07T09:38:15Z) - On Communication Compression for Distributed Optimization on
Heterogeneous Data [28.197694894254305]
機械学習モデルの分散トレーニングにおいて、通信ボトルネックを回避するために、ロッシー勾配圧縮が重要なツールとなっている。
i) 任意の非バイアス量子化器を用いた分散量子化SGDと(ii) エラーフィードバックとバイアス圧縮器を用いた分散SGDの2種類の標準および一般的な手法の性能解析を行う。
以上の結果から,D-EF-SGDは非IDデータによるD-QSGDよりも影響を受けないことがわかった。
論文 参考訳(メタデータ) (2020-09-04T20:48:08Z) - Linear Convergent Decentralized Optimization with Compression [50.44269451541387]
圧縮を伴う既存の分散アルゴリズムは主にDGD型アルゴリズムの圧縮に焦点を当てている。
原始双対アルゴリズムによって動機付けられた本論文は、最初のアンダーラインLinunderlineEAr収束を提案する。
underline Decentralized with compression, LEAD。
論文 参考訳(メタデータ) (2020-07-01T04:35:00Z) - Compressing Large Sample Data for Discriminant Analysis [78.12073412066698]
判別分析フレームワーク内での大きなサンプルサイズに起因する計算問題を考察する。
線形および二次判別分析のためのトレーニングサンプル数を削減するための新しい圧縮手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T05:09:08Z) - Revisiting SGD with Increasingly Weighted Averaging: Optimization and
Generalization Perspectives [50.12802772165797]
平均化手法は、全ての反復解を一つの解に結合する。
実験は、他の平均化方式と比較して、トレードオフと平均化の有効性を示した。
論文 参考訳(メタデータ) (2020-03-09T18:14:00Z) - On Biased Compression for Distributed Learning [55.89300593805943]
バイアス圧縮機が単一ノードと分散設定の両方において線形収束率をもたらすことを初めて示す。
理論的保証と実用性能を期待できる新しいバイアス圧縮機を提案する。
論文 参考訳(メタデータ) (2020-02-27T19:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。