論文の概要: DoCoM-SGT: Doubly Compressed Momentum-assisted Stochastic Gradient
Tracking Algorithm for Communication Efficient Decentralized Learning
- arxiv url: http://arxiv.org/abs/2202.00255v1
- Date: Tue, 1 Feb 2022 07:27:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 22:27:47.847502
- Title: DoCoM-SGT: Doubly Compressed Momentum-assisted Stochastic Gradient
Tracking Algorithm for Communication Efficient Decentralized Learning
- Title(参考訳): DoCoM-SGT:分散学習のための2重圧縮モーメント支援確率勾配追従アルゴリズム
- Authors: Chung-Yiu Yau, Hoi-To Wai
- Abstract要約: 本稿では,Douubly Compressed Momentum-assisted Gradient Tracking Algorithm (DoCoM-SGT)を提案する。
DoCoM-SGTは見積もりの繰り返しを減らすモーメントベースの手法を取り入れている。
- 参考スコア(独自算出の注目度): 25.775517797956237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes the Doubly Compressed Momentum-assisted Stochastic
Gradient Tracking algorithm (DoCoM-SGT) for communication efficient
decentralized learning. DoCoM-SGT utilizes two compression steps per
communication round as the algorithm tracks simultaneously the averaged iterate
and stochastic gradient. Furthermore, DoCoM-SGT incorporates a momentum based
technique for reducing variances in the gradient estimates. We show that
DoCoM-SGT finds a solution $\bar{\theta}$ in $T$ iterations satisfying
$\mathbb{E} [ \| \nabla f(\bar{\theta}) \|^2 ] = {\cal O}( 1 / T^{2/3} )$ for
non-convex objective functions; and we provide competitive convergence rate
guarantees for other function classes. Numerical experiments on synthetic and
real datasets validate the efficacy of our algorithm.
- Abstract(参考訳): 本稿では,Douubly Compressed Momentum-assisted Stochastic Gradient Tracking Algorithm (DoCoM-SGT)を提案する。
DoCoM-SGTは、平均的反復勾配と確率勾配を同時に追跡するため、通信ラウンド当たりの2つの圧縮ステップを利用する。
さらに、DoCoM-SGTは勾配推定のばらつきを低減するモーメントに基づく手法を取り入れている。
我々は、DoCoM-SGT が、非凸目的函数に対して $\mathbb{E} [ \| \nabla f(\bar{\theta}) \|^2 ] = {\cal O}(1 / T^{2/3} )$ を満たす解 $\bar{\theta}$ in $T$ iterations を発見し、他の関数クラスに対して競合収束率保証を提供する。
合成データと実データに関する数値実験により,本アルゴリズムの有効性が検証された。
関連論文リスト
- An Algorithm with Optimal Dimension-Dependence for Zero-Order Nonsmooth Nonconvex Stochastic Optimization [37.300102993926046]
リプシッツの目的の滑らかな点も凸点も生成しない点の複雑さについて検討する。
私たちの分析は単純だが強力だ。
Goldstein-subdifferential set, これは最近の進歩を可能にする。
非滑らかな非最適化
論文 参考訳(メタデータ) (2023-07-10T11:56:04Z) - An Oblivious Stochastic Composite Optimization Algorithm for Eigenvalue
Optimization Problems [76.2042837251496]
相補的な合成条件に基づく2つの難解なミラー降下アルゴリズムを導入する。
注目すべきは、どちらのアルゴリズムも、目的関数のリプシッツ定数や滑らかさに関する事前の知識なしで機能する。
本稿では,大規模半確定プログラム上での手法の効率性とロバスト性を示す。
論文 参考訳(メタデータ) (2023-06-30T08:34:29Z) - A One-Sample Decentralized Proximal Algorithm for Non-Convex Stochastic
Composite Optimization [10.762749887051546]
本稿では,Proxcal$DASA-GTとProxcal$DASA-Aの2時間スケールアルゴリズムを提案する。
以前の作業とは異なり、我々のアルゴリズムは、大きなバッチサイズ、より複雑な単位演算、より強い仮定を必要とせずに、同等の複雑さを達成する。
論文 参考訳(メタデータ) (2023-02-20T05:16:18Z) - ReSQueing Parallel and Private Stochastic Convex Optimization [59.53297063174519]
本稿では,BFG凸最適化(SCO: Reweighted Query (ReSQue) 推定ツールを提案する。
我々はSCOの並列およびプライベート設定における最先端の複雑さを実現するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-01T18:51:29Z) - An Optimal Stochastic Algorithm for Decentralized Nonconvex Finite-sum
Optimization [25.21457349137344]
私たちは、DEARESTが少なくとも$mathcal O(+sqrtmnLvarepsilon-2)$ 1次オラクル(IFO)コールと$mathcal O(Lvarepsilon-2/sqrt1-lambda_W)$通信ラウンドを必要とすることを示す証拠を示します。
論文 参考訳(メタデータ) (2022-10-25T11:37:11Z) - Multi-block-Single-probe Variance Reduced Estimator for Coupled
Compositional Optimization [49.58290066287418]
構成問題の複雑さを軽減するために,MSVR (Multi-block-probe Variance Reduced) という新しい手法を提案する。
本研究の結果は, 試料の複雑さの順序や強靭性への依存など, 様々な面で先行して改善された。
論文 参考訳(メタデータ) (2022-07-18T12:03:26Z) - Optimal Extragradient-Based Bilinearly-Coupled Saddle-Point Optimization [116.89941263390769]
滑らかな凸凹凸結合型サドル点問題, $min_mathbfxmax_mathbfyF(mathbfx) + H(mathbfx,mathbfy)$ を考える。
漸進的勾配指数(AG-EG)降下指数アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-06-17T06:10:20Z) - Optimal Gradient Sliding and its Application to Distributed Optimization
Under Similarity [121.83085611327654]
積 $r:=p + q$, ここで$r$は$mu$-strong convex類似性である。
エージェントの通信やローカルコールにマスターされた問題を解決する方法を提案する。
提案手法は$mathcalO(sqrtL_q/mu)$法よりもはるかにシャープである。
論文 参考訳(メタデータ) (2022-05-30T14:28:02Z) - A Two-Timescale Framework for Bilevel Optimization: Complexity Analysis
and Application to Actor-Critic [142.1492359556374]
双レベル最適化は、2レベル構造を示す問題のクラスである。
このような二段階問題に対処するための2段階近似(TTSA)アルゴリズムを提案する。
本稿では,TTSAフレームワークの特殊な事例として,2段階の自然なアクター・クリティカルポリシー最適化アルゴリズムが有用であることを示す。
論文 参考訳(メタデータ) (2020-07-10T05:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。