論文の概要: Decentralized Optimization with Heterogeneous Delays: a Continuous-Time
Approach
- arxiv url: http://arxiv.org/abs/2106.03585v1
- Date: Mon, 7 Jun 2021 13:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 05:48:22.057605
- Title: Decentralized Optimization with Heterogeneous Delays: a Continuous-Time
Approach
- Title(参考訳): 不均一遅延による分散最適化:連続時間アプローチ
- Authors: Mathieu Even, Hadrien Hendrikx, Laurent Massoulie
- Abstract要約: 非同期アルゴリズムを解析するための新しい連続時間フレームワークを提案する。
我々は,スムーズな凸関数と強い凸関数の和を最小化するために,完全に非同期な分散アルゴリズムを記述する。
- 参考スコア(独自算出の注目度): 6.187780920448871
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In decentralized optimization, nodes of a communication network privately
possess a local objective function, and communicate using gossip-based methods
in order to minimize the average of these per-node objectives. While
synchronous algorithms can be heavily slowed down by a few nodes and edges in
the graph (the straggler problem), their asynchronous counterparts lack from a
sharp analysis taking into account heterogeneous delays in the communication
network. In this paper, we propose a novel continuous-time framework to analyze
asynchronous algorithms, which does not require to define a global ordering of
the events, and allows to finely characterize the time complexity in the
presence of (heterogeneous) delays. Using this framework, we describe a fully
asynchronous decentralized algorithm to minimize the sum of smooth and strongly
convex functions. Our algorithm (DCDM, Delayed Coordinate Dual Method), based
on delayed randomized gossip communications and local computational updates,
achieves an asynchronous speed-up: the rate of convergence is tightly
characterized in terms of the eigengap of the graph weighted by local delays
only, instead of the global worst-case delays as in previous analyses.
- Abstract(参考訳): 分散最適化では、通信ネットワークのノードはローカルな目的関数を持ち、ノード毎の目的の平均を最小化するためにゴシップベースの手法で通信する。
同期アルゴリズムはグラフ内のいくつかのノードとエッジ(ストラグラー問題)によって大幅に遅くすることができるが、その非同期アルゴリズムは通信ネットワークの不均一な遅延を考慮した鋭い解析を欠いている。
本稿では、イベントのグローバルな順序付けを必要とせず、(不均一な)遅延の存在下での時間複雑性を微妙に特徴づけることができる非同期アルゴリズムを解析するための新しい連続時間フレームワークを提案する。
このフレームワークを用いて,滑らかかつ強い凸関数の和を最小化する完全非同期分散アルゴリズムについて述べる。
我々のアルゴリズム(dcdm, delay coordinate dual method)は遅延ランダム化ゴシップ通信と局所計算更新に基づいて非同期な高速化を実現している。
関連論文リスト
- Decentralized Optimization in Time-Varying Networks with Arbitrary Delays [22.40154714677385]
通信遅延によるネットワークの分散最適化問題を考察する。
そのようなネットワークの例としては、協調機械学習、センサーネットワーク、マルチエージェントシステムなどがある。
通信遅延を模倣するため、ネットワークに仮想非計算ノードを追加し、有向グラフを生成する。
論文 参考訳(メタデータ) (2024-05-29T20:51:38Z) - Lower Bounds and Optimal Algorithms for Non-Smooth Convex Decentralized Optimization over Time-Varying Networks [57.24087627267086]
通信ネットワークのノード間で分散的に格納された凸関数の総和を最小化するタスクについて検討する。
この問題を解決するのに必要な分散通信数と(サブ)漸進計算の下位境界が確立されている。
我々は,これらの下界に適合する最初の最適アルゴリズムを開発し,既存の最先端技術と比較して理論性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-28T10:28:45Z) - DASA: Delay-Adaptive Multi-Agent Stochastic Approximation [64.32538247395627]
我々は,N$エージェントが並列に動作し,中央サーバと通信することで,一般的な近似問題を高速化することを目的とした設定を考える。
遅延とストラグラーの効果を軽減するために,マルチエージェント近似のための遅延適応アルゴリズムである textttDASA を提案する。
論文 参考訳(メタデータ) (2024-03-25T22:49:56Z) - Asynchronous Distributed Optimization with Delay-free Parameters [9.062164411594175]
本稿では,2つの分散アルゴリズム, Prox-DGD と DGD-ATC の非同期バージョンを開発し,無方向性ネットワーク上でのコンセンサス最適化問題を解く。
代替アルゴリズムとは対照的に,我々のアルゴリズムは,遅延に依存しないステップサイズを用いて,同期アルゴリズムの固定点集合に収束することができる。
論文 参考訳(メタデータ) (2023-12-11T16:33:38Z) - Towards Understanding the Generalizability of Delayed Stochastic
Gradient Descent [63.43247232708004]
非同期で実行される勾配降下は、大規模機械学習モデルのトレーニングにおいて重要な役割を果たす。
既存の一般化誤差境界は悲観的であり、非同期遅延と一般化の相関を明らかにすることはできない。
我々の理論的結果は、非同期遅延は遅延SGDアルゴリズムの一般化誤差を低減することを示唆している。
論文 参考訳(メタデータ) (2023-08-18T10:00:27Z) - Locally Asynchronous Stochastic Gradient Descent for Decentralised Deep
Learning [0.0]
Local Asynchronous SGD (LASGD) は、モデル同期にAll Reduceに依存する非同期分散アルゴリズムである。
ImageNetデータセット上の画像分類タスクにおいて、LASGDの性能を実証的に検証する。
論文 参考訳(メタデータ) (2022-03-24T14:25:15Z) - Acceleration in Distributed Optimization Under Similarity [72.54787082152278]
集中ノードを持たないエージェントネットワーク上での分散(強い凸)最適化問題について検討する。
$varepsilon$-solutionは$tildemathcalrhoObig(sqrtfracbeta/mu (1-)log1/varepsilonbig)$通信ステップ数で達成される。
この速度は、関心のクラスに適用される分散ゴシップ-アルゴリズムの、初めて(ポリログ因子まで)より低い複雑性の通信境界と一致する。
論文 参考訳(メタデータ) (2021-10-24T04:03:00Z) - DESTRESS: Computation-Optimal and Communication-Efficient Decentralized
Nonconvex Finite-Sum Optimization [43.31016937305845]
インターネット・オブ・シング、ネットワークセンシング、自律システム、有限サム最適化のための分散アルゴリズムのためのフェデレーション学習。
非有限サム最適化のためのDecentralized STochastic Recursive MethodDESTRESSを開発した。
詳細な理論的および数値的な比較は、DESTRESSが事前の分散アルゴリズムにより改善されていることを示している。
論文 参考訳(メタデータ) (2021-10-04T03:17:41Z) - Distributed stochastic optimization with large delays [59.95552973784946]
大規模最適化問題を解決する最も広く使われている手法の1つは、分散非同期勾配勾配(DASGD)である。
DASGDは同じ遅延仮定の下で大域的最適実装モデルに収束することを示す。
論文 参考訳(メタデータ) (2021-07-06T21:59:49Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。