論文の概要: Distributed Methods with Compressed Communication for Solving
Variational Inequalities, with Theoretical Guarantees
- arxiv url: http://arxiv.org/abs/2110.03313v1
- Date: Thu, 7 Oct 2021 10:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 16:03:41.744923
- Title: Distributed Methods with Compressed Communication for Solving
Variational Inequalities, with Theoretical Guarantees
- Title(参考訳): 理論保証付き変分不等式解のための圧縮通信を用いた分散手法
- Authors: Aleksandr Beznosikov and Peter Richt\'arik and Michael Diskin and Max
Ryabinin and Alexander Gasnikov
- Abstract要約: 本稿では, 圧縮通信を用いた変分不等式とサドル点問題の解法として, 初めて理論的に基礎を成した分散手法を提案する。
我々の理論と手法は、非バイアス(Rand$k$, MASHA1)と契約的(Top$k$, MASHA2)圧縮機の両方の使用を可能にする。
- 参考スコア(独自算出の注目度): 116.42899882525408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational inequalities in general and saddle point problems in particular
are increasingly relevant in machine learning applications, including
adversarial learning, GANs, transport and robust optimization. With increasing
data and problem sizes necessary to train high performing models across these
and other applications, it is necessary to rely on parallel and distributed
computing. However, in distributed training, communication among the compute
nodes is a key bottleneck during training, and this problem is exacerbated for
high dimensional and over-parameterized models models. Due to these
considerations, it is important to equip existing methods with strategies that
would allow to reduce the volume of transmitted information during training
while obtaining a model of comparable quality. In this paper, we present the
first theoretically grounded distributed methods for solving variational
inequalities and saddle point problems using compressed communication: MASHA1
and MASHA2. Our theory and methods allow for the use of both unbiased (such as
Rand$k$; MASHA1) and contractive (such as Top$k$; MASHA2) compressors. We
empirically validate our conclusions using two experimental setups: a standard
bilinear min-max problem, and large-scale distributed adversarial training of
transformers.
- Abstract(参考訳): 一般およびサドル点問題における変分不等式は、敵対的学習、GAN、輸送、堅牢な最適化を含む機械学習アプリケーションにおいて、ますます重要になっている。
これらのアプリケーション間でハイパフォーマンスモデルをトレーニングするために必要なデータと問題サイズの増加に伴い、並列および分散コンピューティングに頼る必要がある。
しかし、分散トレーニングでは、計算ノード間の通信がトレーニングの鍵となるボトルネックとなり、高次元モデルや過度パラメータモデルではこの問題が悪化する。
これらの考慮から,既存の手法に同等の品質のモデルを取得しながら,訓練中の伝達情報の量を削減する戦略を組み込むことが重要である。
本稿では,MASHA1とMASHA2の圧縮通信を用いた変分不等式とサドル点問題の解法として,初めて理論的に基礎付けられた分散手法を提案する。
我々の理論と手法は、非バイアス(Rand$k$, MASHA1)と契約的(Top$k$, MASHA2)圧縮機の両方の使用を可能にする。
両線形最小値問題と変圧器の大規模分散対角訓練の2つの実験装置を用いて,実験結果の有効性を実証的に検証した。
関連論文リスト
- Accelerated Stochastic ExtraGradient: Mixing Hessian and Gradient Similarity to Reduce Communication in Distributed and Federated Learning [50.382793324572845]
分散コンピューティングはデバイス間の通信を伴うため、効率性とプライバシという2つの重要な問題を解決する必要がある。
本稿では,データ類似性とクライアントサンプリングのアイデアを取り入れた新しい手法について分析する。
プライバシー問題に対処するために,付加雑音の手法を適用し,提案手法の収束への影響を解析する。
論文 参考訳(メタデータ) (2024-09-22T00:49:10Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Similarity, Compression and Local Steps: Three Pillars of Efficient Communications for Distributed Variational Inequalities [91.12425544503395]
変分不等式は平衡探索から逆学習まで様々な応用で用いられている。
ほとんどの分散アプローチには、通信コストというボトルネックがあります。
通信ラウンドの総数と1ラウンドのコストを削減する3つの主要な手法は、ローカル関数の類似性、送信された情報の圧縮、ローカル更新である。
本稿では,通信複雑性の理論的保証が最良であり,分散変動不等式に対する他の手法よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-02-15T12:11:27Z) - Compression and Data Similarity: Combination of Two Techniques for
Communication-Efficient Solving of Distributed Variational Inequalities [137.6408511310322]
本稿では、圧縮とデータ類似性という2つの一般的なアプローチの組み合わせについて考察する。
この相乗効果は, 分散分散単調変分不等式の解法において, それぞれ別々に行う方法よりも効果的であることを示す。
論文 参考訳(メタデータ) (2022-06-19T16:38:56Z) - A Linearly Convergent Algorithm for Decentralized Optimization: Sending
Less Bits for Free! [72.31332210635524]
分散最適化手法は、中央コーディネータを使わずに、機械学習モデルのデバイス上でのトレーニングを可能にする。
ランダム化圧縮演算子を適用し,通信ボトルネックに対処する新しいランダム化一階法を提案する。
本手法は,ベースラインに比べて通信数の増加を伴わずに問題を解くことができることを示す。
論文 参考訳(メタデータ) (2020-11-03T13:35:53Z) - Gradient tracking and variance reduction for decentralized optimization
and machine learning [19.54092620537586]
有限サム問題の解法は、多くの信号処理や機械学習タスクにおいて重要である。
分散還元と勾配追跡を組み合わせ、堅牢な性能を実現するための統一的なアルゴリズムフレームワークを提供する。
論文 参考訳(メタデータ) (2020-02-13T07:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。