論文の概要: A Unified Theory of Decentralized SGD with Changing Topology and Local
Updates
- arxiv url: http://arxiv.org/abs/2003.10422v3
- Date: Tue, 2 Mar 2021 14:07:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 23:49:47.503601
- Title: A Unified Theory of Decentralized SGD with Changing Topology and Local
Updates
- Title(参考訳): トポロジー変化と局所更新を考慮した分散sgdの統一理論
- Authors: Anastasia Koloskova, Nicolas Loizou, Sadra Boreiri, Martin Jaggi,
Sebastian U. Stich
- Abstract要約: 分散通信方式の統一収束解析を導入する。
いくつかの応用に対して普遍収束率を導出する。
私たちの証明は弱い仮定に依存している。
- 参考スコア(独自算出の注目度): 70.9701218475002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized stochastic optimization methods have gained a lot of attention
recently, mainly because of their cheap per iteration cost, data locality, and
their communication-efficiency. In this paper we introduce a unified
convergence analysis that covers a large variety of decentralized SGD methods
which so far have required different intuitions, have different applications,
and which have been developed separately in various communities.
Our algorithmic framework covers local SGD updates and synchronous and
pairwise gossip updates on adaptive network topology. We derive universal
convergence rates for smooth (convex and non-convex) problems and the rates
interpolate between the heterogeneous (non-identically distributed data) and
iid-data settings, recovering linear convergence rates in many special cases,
for instance for over-parametrized models. Our proofs rely on weak assumptions
(typically improving over prior work in several aspects) and recover (and
improve) the best known complexity results for a host of important scenarios,
such as for instance coorperative SGD and federated averaging (local SGD).
- Abstract(参考訳): 分散確率最適化手法は、主に1イテレーションあたりのコストの安さ、データの局所性、通信効率が原因で近年注目を集めている。
本稿では,これまで様々な直観を必要とする分散SGD手法を網羅し,様々なコミュニティで個別に開発してきた統合収束解析について紹介する。
アルゴリズムフレームワークは,適応型ネットワークトポロジ上でのローカルsgd更新と同期およびペアワイズゴシップ更新をカバーする。
平滑(凸および非凸)問題に対する普遍収束率と、不均一(非同定分布データ)と iid-データ設定との補間率を導出し、超パラメータモデルなど、多くの特別な場合において線形収束率を回復する。
私たちの証明は、弱い仮定(通常、いくつかの面での事前作業よりも改善)に依存しており、例えば調整型sgdやフェデレーション平均化(ローカルsgd)など、多くの重要なシナリオにおいて最もよく知られた複雑性を回復(そして改善)します。
関連論文リスト
- Stability and Generalization for Distributed SGDA [70.97400503482353]
分散SGDAのための安定性に基づく一般化分析フレームワークを提案する。
我々は, 安定性の誤差, 一般化ギャップ, 人口リスクの包括的分析を行う。
理論的結果から,一般化ギャップと最適化誤差のトレードオフが明らかになった。
論文 参考訳(メタデータ) (2024-11-14T11:16:32Z) - Stability and Generalization of the Decentralized Stochastic Gradient
Descent Ascent Algorithm [80.94861441583275]
本稿では,分散勾配勾配(D-SGDA)アルゴリズムの一般化境界の複雑さについて検討する。
本研究は,D-SGDAの一般化における各因子の影響を解析した。
また、最適凸凹設定を得るために一般化とバランスをとる。
論文 参考訳(メタデータ) (2023-10-31T11:27:01Z) - Stochastic Gradient Descent-Ascent: Unified Theory and New Efficient
Methods [73.35353358543507]
SGDA(Gradient Descent-Ascent)は、min-max最適化と変分不等式問題(VIP)を解くための最も顕著なアルゴリズムの1つである。
本稿では,多種多様な降下指数法を網羅した統合収束解析を提案する。
本研究では,新しい分散化手法 (L-SVRGDA) や,新しい分散圧縮方式 (QSGDA, DIANA-SGDA, VR-DIANA-SGDA) ,座標ランダム化方式 (SEGA-SGDA) など,SGDAの新しい変種を開発した。
論文 参考訳(メタデータ) (2022-02-15T09:17:39Z) - Escaping Saddle Points with Bias-Variance Reduced Local Perturbed SGD
for Communication Efficient Nonconvex Distributed Learning [58.79085525115987]
ローカル手法は通信時間を短縮する有望なアプローチの1つである。
局所的データセットが局所的損失の滑らかさよりも小さい場合,通信の複雑さは非局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-12T15:12:17Z) - On the Convergence of Heterogeneous Federated Learning with Arbitrary
Adaptive Online Model Pruning [15.300983585090794]
任意適応型オンラインモデルプルーニングを用いた異種FLアルゴリズムの一元化フレームワークを提案する。
特に、ある十分な条件下では、これらのアルゴリズムは一般的なスムーズなコスト関数に対して標準FLの定常点に収束する。
コンバージェンスに影響を与える2つの要因として,プルーニング誘導雑音と最小カバレッジ指数を照らす。
論文 参考訳(メタデータ) (2022-01-27T20:43:38Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Local Stochastic Gradient Descent Ascent: Convergence Analysis and
Communication Efficiency [15.04034188283642]
Local SGDは分散学習における通信オーバーヘッドを克服するための有望なアプローチである。
局所sgdaは均質データと異質データの両方において分散ミニマックス問題を確実に最適化できることを示す。
論文 参考訳(メタデータ) (2021-02-25T20:15:18Z) - Local SGD: Unified Theory and New Efficient Methods [8.701566919381223]
本稿では,局所的なSGD手法を凸型および強凸型で解析するための統一的なフレームワークを提案する。
我々は,データ均一性や他の強い仮定を必要としない,線形収束型局所SGD法を開発した。
論文 参考訳(メタデータ) (2020-11-03T13:02:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。