論文の概要: DoCoM: Compressed Decentralized Optimization with Near-Optimal Sample
Complexity
- arxiv url: http://arxiv.org/abs/2202.00255v2
- Date: Mon, 31 Jul 2023 04:34:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 01:05:39.141207
- Title: DoCoM: Compressed Decentralized Optimization with Near-Optimal Sample
Complexity
- Title(参考訳): DoCoM: ほぼ最適サンプル複雑性を持つ圧縮分散最適化
- Authors: Chung-Yiu Yau, Hoi-To Wai
- Abstract要約: 本稿では,Douubly Compressed Momentum-assisted tracking algorithm $ttDoCoM$ for communicationを提案する。
我々のアルゴリズムは、実際にいくつかの最先端のアルゴリズムより優れていることを示す。
- 参考スコア(独自算出の注目度): 25.775517797956237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes the Doubly Compressed Momentum-assisted stochastic
gradient tracking algorithm $\texttt{DoCoM}$ for communication-efficient
decentralized optimization. The algorithm features two main ingredients to
achieve a near-optimal sample complexity while allowing for communication
compression. First, the algorithm tracks both the averaged iterate and
stochastic gradient using compressed gossiping consensus. Second, a momentum
step is incorporated for adaptive variance reduction with the local gradient
estimates. We show that $\texttt{DoCoM}$ finds a near-stationary solution at
all participating agents satisfying $\mathbb{E}[ \| \nabla f( \theta ) \|^2 ] =
\mathcal{O}( 1 / T^{2/3} )$ in $T$ iterations, where $f(\theta)$ is a smooth
(possibly non-convex) objective function. Notice that the proof is achieved via
analytically designing a new potential function that tightly tracks the
one-iteration progress of $\texttt{DoCoM}$. As a corollary, our analysis also
established the linear convergence of $\texttt{DoCoM}$ to a global optimal
solution for objective functions with the Polyak-{\L}ojasiewicz condition.
Numerical experiments demonstrate that our algorithm outperforms several
state-of-the-art algorithms in practice.
- Abstract(参考訳): 本稿では、通信効率の高い分散最適化のために、Douubly Compressed Momentum支援確率勾配追跡アルゴリズム $\texttt{DoCoM}$を提案する。
このアルゴリズムは、通信圧縮を可能にしながら、最適に近いサンプル複雑性を達成するための2つの主成分を特徴としている。
まず、アルゴリズムは圧縮ゴシピングコンセンサスを用いて、平均的な反復と確率的勾配の両方を追跡する。
第2に、局所勾配推定と適応分散低減のためのモーメントステップが組み込まれている。
我々は、$\texttt{DoCoM}$が、$\mathbb{E}[ \| \nabla f( \theta ) \|^2 ] = \mathcal{O}(1 / T^{2/3} )$ in $T$ iterations, ここで$f(\theta)$は滑らかな(非凸的)目的関数であることを示す。
この証明は、$\texttt{DoCoM}$の1点過程を厳密に追跡する新しいポテンシャル関数を解析的に設計することで達成される。
また,本解析では,ポリak-{\l}ojasiewicz条件を持つ目的関数に対する大域的最適解への$\textt{docom}$の線形収束も確立した。
数値実験により,本アルゴリズムは実際にいくつかの最先端アルゴリズムより優れていることが示された。
関連論文リスト
- An Algorithm with Optimal Dimension-Dependence for Zero-Order Nonsmooth Nonconvex Stochastic Optimization [37.300102993926046]
リプシッツの目的の滑らかな点も凸点も生成しない点の複雑さについて検討する。
私たちの分析は単純だが強力だ。
Goldstein-subdifferential set, これは最近の進歩を可能にする。
非滑らかな非最適化
論文 参考訳(メタデータ) (2023-07-10T11:56:04Z) - An Oblivious Stochastic Composite Optimization Algorithm for Eigenvalue
Optimization Problems [76.2042837251496]
相補的な合成条件に基づく2つの難解なミラー降下アルゴリズムを導入する。
注目すべきは、どちらのアルゴリズムも、目的関数のリプシッツ定数や滑らかさに関する事前の知識なしで機能する。
本稿では,大規模半確定プログラム上での手法の効率性とロバスト性を示す。
論文 参考訳(メタデータ) (2023-06-30T08:34:29Z) - A One-Sample Decentralized Proximal Algorithm for Non-Convex Stochastic
Composite Optimization [10.762749887051546]
本稿では,Proxcal$DASA-GTとProxcal$DASA-Aの2時間スケールアルゴリズムを提案する。
以前の作業とは異なり、我々のアルゴリズムは、大きなバッチサイズ、より複雑な単位演算、より強い仮定を必要とせずに、同等の複雑さを達成する。
論文 参考訳(メタデータ) (2023-02-20T05:16:18Z) - ReSQueing Parallel and Private Stochastic Convex Optimization [59.53297063174519]
本稿では,BFG凸最適化(SCO: Reweighted Query (ReSQue) 推定ツールを提案する。
我々はSCOの並列およびプライベート設定における最先端の複雑さを実現するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-01T18:51:29Z) - An Optimal Stochastic Algorithm for Decentralized Nonconvex Finite-sum
Optimization [25.21457349137344]
私たちは、DEARESTが少なくとも$mathcal O(+sqrtmnLvarepsilon-2)$ 1次オラクル(IFO)コールと$mathcal O(Lvarepsilon-2/sqrt1-lambda_W)$通信ラウンドを必要とすることを示す証拠を示します。
論文 参考訳(メタデータ) (2022-10-25T11:37:11Z) - Multi-block-Single-probe Variance Reduced Estimator for Coupled
Compositional Optimization [49.58290066287418]
構成問題の複雑さを軽減するために,MSVR (Multi-block-probe Variance Reduced) という新しい手法を提案する。
本研究の結果は, 試料の複雑さの順序や強靭性への依存など, 様々な面で先行して改善された。
論文 参考訳(メタデータ) (2022-07-18T12:03:26Z) - Optimal Extragradient-Based Bilinearly-Coupled Saddle-Point Optimization [116.89941263390769]
滑らかな凸凹凸結合型サドル点問題, $min_mathbfxmax_mathbfyF(mathbfx) + H(mathbfx,mathbfy)$ を考える。
漸進的勾配指数(AG-EG)降下指数アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-06-17T06:10:20Z) - Optimal Gradient Sliding and its Application to Distributed Optimization
Under Similarity [121.83085611327654]
積 $r:=p + q$, ここで$r$は$mu$-strong convex類似性である。
エージェントの通信やローカルコールにマスターされた問題を解決する方法を提案する。
提案手法は$mathcalO(sqrtL_q/mu)$法よりもはるかにシャープである。
論文 参考訳(メタデータ) (2022-05-30T14:28:02Z) - A Two-Timescale Framework for Bilevel Optimization: Complexity Analysis
and Application to Actor-Critic [142.1492359556374]
双レベル最適化は、2レベル構造を示す問題のクラスである。
このような二段階問題に対処するための2段階近似(TTSA)アルゴリズムを提案する。
本稿では,TTSAフレームワークの特殊な事例として,2段階の自然なアクター・クリティカルポリシー最適化アルゴリズムが有用であることを示す。
論文 参考訳(メタデータ) (2020-07-10T05:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。