論文の概要: DADAO: Decoupled Accelerated Decentralized Asynchronous Optimization
- arxiv url: http://arxiv.org/abs/2208.00779v3
- Date: Wed, 6 Dec 2023 08:39:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 19:51:31.050943
- Title: DADAO: Decoupled Accelerated Decentralized Asynchronous Optimization
- Title(参考訳): dadao: 分散分散非同期最適化を分離する
- Authors: Adel Nabli (MLIA, ISIR, MILA), Edouard Oyallon (MLIA, ISIR)
- Abstract要約: DADAOは、L$-smooth と $mu$-strongly convex 関数の和を最小化する最初の分散化、高速化、非同期化、プライマリ化、一階述語アルゴリズムである。
我々のアルゴリズムは、$mathcalO(nsqrtchisqrtfracLmulog(frac1epsilon)$ localと$mathcalO(nsqrtchisqrtfracLmulog()のみを必要とすることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces DADAO: the first decentralized, accelerated,
asynchronous, primal, first-order algorithm to minimize a sum of $L$-smooth and
$\mu$-strongly convex functions distributed over a given network of size $n$.
Our key insight is based on modeling the local gradient updates and gossip
communication procedures with separate independent Poisson Point Processes.
This allows us to decouple the computation and communication steps, which can
be run in parallel, while making the whole approach completely asynchronous.
This leads to communication acceleration compared to synchronous approaches.
Our new method employs primal gradients and does not use a multi-consensus
inner loop nor other ad-hoc mechanisms such as Error Feedback, Gradient
Tracking, or a Proximal operator. By relating the inverse of the smallest
positive eigenvalue of the Laplacian matrix $\chi_1$ and the maximal resistance
$\chi_2\leq \chi_1$ of the graph to a sufficient minimal communication rate
between the nodes of the network, we show that our algorithm requires
$\mathcal{O}(n\sqrt{\frac{L}{\mu}}\log(\frac{1}{\epsilon}))$ local gradients
and only
$\mathcal{O}(n\sqrt{\chi_1\chi_2}\sqrt{\frac{L}{\mu}}\log(\frac{1}{\epsilon}))$
communications to reach a precision $\epsilon$, up to logarithmic terms. Thus,
we simultaneously obtain an accelerated rate for both computations and
communications, leading to an improvement over state-of-the-art works, our
simulations further validating the strength of our relatively unconstrained
method.
- Abstract(参考訳): この研究はdadaoを紹介している: 与えられたサイズのネットワーク上に分散された$l$-smoothと$\mu$-strongly convex関数の和を最小化する最初の分散化、高速化、非同期、プリミティブ、一階アルゴリズム。
我々の重要な洞察は、独立したポアソンポイントプロセスで局所的な勾配更新とゴシップ通信手順をモデル化することに基づいている。
これにより、並列で実行できる計算と通信のステップを分離し、アプローチ全体を完全に非同期にすることが可能になる。
これにより、同期アプローチと比較して通信の加速につながる。
提案手法は一次勾配を用いており,マルチコンセンサス内ループや,エラーフィードバック,勾配追従,プロキシ演算子などのアドホック機構は使用していない。
By relating the inverse of the smallest positive eigenvalue of the Laplacian matrix $\chi_1$ and the maximal resistance $\chi_2\leq \chi_1$ of the graph to a sufficient minimal communication rate between the nodes of the network, we show that our algorithm requires $\mathcal{O}(n\sqrt{\frac{L}{\mu}}\log(\frac{1}{\epsilon}))$ local gradients and only $\mathcal{O}(n\sqrt{\chi_1\chi_2}\sqrt{\frac{L}{\mu}}\log(\frac{1}{\epsilon}))$ communications to reach a precision $\epsilon$, up to logarithmic terms.
そこで我々は,計算と通信の双方の高速化率を同時に獲得し,最先端の作業よりも向上し,比較的制約のない手法の強度を更に検証する。
関連論文リスト
- Cooperative Multi-Agent Reinforcement Learning: Asynchronous
Communication and Linear Function Approximation [77.09836892653176]
マルコフ決定過程の設定におけるマルチエージェント強化学習について検討した。
本稿では非同期通信が可能な値に基づく証明可能な効率的なアルゴリズムを提案する。
我々は、コラボレーションによってパフォーマンスを改善するために、最小の$Omega(dM)$通信の複雑さが必要であることを示す。
論文 参考訳(メタデータ) (2023-05-10T20:29:29Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - Sharper Convergence Guarantees for Asynchronous SGD for Distributed and
Federated Learning [77.22019100456595]
通信周波数の異なる分散計算作業者のトレーニングアルゴリズムを示す。
本研究では,より厳密な収束率を$mathcalO!!(sigma2-2_avg!)とする。
また,不均一性の項は,作業者の平均遅延によっても影響されることを示した。
論文 参考訳(メタデータ) (2022-06-16T17:10:57Z) - Acceleration in Distributed Optimization Under Similarity [72.54787082152278]
集中ノードを持たないエージェントネットワーク上での分散(強い凸)最適化問題について検討する。
$varepsilon$-solutionは$tildemathcalrhoObig(sqrtfracbeta/mu (1-)log1/varepsilonbig)$通信ステップ数で達成される。
この速度は、関心のクラスに適用される分散ゴシップ-アルゴリズムの、初めて(ポリログ因子まで)より低い複雑性の通信境界と一致する。
論文 参考訳(メタデータ) (2021-10-24T04:03:00Z) - Asynchronous Stochastic Optimization Robust to Arbitrary Delays [54.61797739710608]
遅延勾配の最適化を考えると、ステップt$毎に、アルゴリズムは古い計算を使って更新する - d_t$ for arbitrary delay $d_t gradient。
本実験は,遅延分布が歪んだり重くなったりした場合のアルゴリズムの有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2021-06-22T15:50:45Z) - Communication-efficient SGD: From Local SGD to One-Shot Averaging [16.00658606157781]
複数の作業者に対して並列化することで,勾配降下(SGD)の高速化を検討する。
そこで本研究では,反復数の増加に伴って通信頻度を小さくすることで,全体の通信を減らし,局所的なSGD方式を提案する。
論文 参考訳(メタデータ) (2021-06-09T01:10:34Z) - Accelerated Gradient Tracking over Time-varying Graphs for Decentralized Optimization [59.65871549878937]
実用的な単一ループ加速勾配追跡には$O(fracgamma1-sigma_gamma)2sqrtfracLepsilon)$が必要であることを証明している。
我々の収束率は$O(frac1epsilon5/7)$と$O(fracLmu)5/7frac1(1-sigma)1.5logfrac1epsilon)$よりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-06T15:34:14Z) - On the Benefits of Multiple Gossip Steps in Communication-Constrained
Decentralized Optimization [29.42301299741866]
ステップサイズが一定である$O(logfrac1epsilon)$の反復を$O(logfrac1epsilon)$とすることで、スムーズな非圧縮勾配目的に対する最適値の$epsilon$に収束できることを示す。
我々の知る限り、これは圧縮された通信圧縮パラメータの下での非最適化の収束結果を導出した最初の研究である。
論文 参考訳(メタデータ) (2020-11-20T21:17:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。