論文の概要: DESTRESS: Computation-Optimal and Communication-Efficient Decentralized
Nonconvex Finite-Sum Optimization
- arxiv url: http://arxiv.org/abs/2110.01165v1
- Date: Mon, 4 Oct 2021 03:17:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 00:25:19.305676
- Title: DESTRESS: Computation-Optimal and Communication-Efficient Decentralized
Nonconvex Finite-Sum Optimization
- Title(参考訳): DESTRESS: 計算最適化と通信効率の最適化
- Authors: Boyue Li, Zhize Li, Yuejie Chi
- Abstract要約: インターネット・オブ・シング、ネットワークセンシング、自律システム、有限サム最適化のための分散アルゴリズムのためのフェデレーション学習。
非有限サム最適化のためのDecentralized STochastic Recursive MethodDESTRESSを開発した。
詳細な理論的および数値的な比較は、DESTRESSが事前の分散アルゴリズムにより改善されていることを示している。
- 参考スコア(独自算出の注目度): 43.31016937305845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emerging applications in multi-agent environments such as internet-of-things,
networked sensing, autonomous systems and federated learning, call for
decentralized algorithms for finite-sum optimizations that are
resource-efficient in terms of both computation and communication. In this
paper, we consider the prototypical setting where the agents work
collaboratively to minimize the sum of local loss functions by only
communicating with their neighbors over a predetermined network topology. We
develop a new algorithm, called DEcentralized STochastic REcurSive gradient
methodS (DESTRESS) for nonconvex finite-sum optimization, which matches the
optimal incremental first-order oracle (IFO) complexity of centralized
algorithms for finding first-order stationary points, while maintaining
communication efficiency. Detailed theoretical and numerical comparisons
corroborate that the resource efficiencies of DESTRESS improve upon prior
decentralized algorithms over a wide range of parameter regimes. DESTRESS
leverages several key algorithm design ideas including stochastic recursive
gradient updates with mini-batches for local computation, gradient tracking
with extra mixing (i.e., multiple gossiping rounds) for per-iteration
communication, together with careful choices of hyper-parameters and new
analysis frameworks to provably achieve a desirable computation-communication
trade-off.
- Abstract(参考訳): インターネット・オブ・シング、ネットワークセンシング、自律システム、フェデレーション学習といったマルチエージェント環境における新興アプリケーションは、計算と通信の両面で資源効率のよい有限サム最適化のための分散アルゴリズムを要求する。
本稿では,エージェントがネットワークトポロジー上で隣人とのみ通信することにより,局所損失関数の和を最小化するために協調的に作業する原型的設定を考える。
我々は,非凸有限サム最適化のための分散確率的再帰的勾配法(destress)と呼ばれる新しいアルゴリズムを開発した。
より詳細な理論的および数値的な比較は、DeSTRESSの資源効率が、幅広いパラメータ・レシエーションにおける事前の分散化アルゴリズムを改善することを裏付ける。
DESTRESSは、局所計算のためのミニバッチによる確率的再帰的勾配更新、解答間通信のための追加混合(複数のゴシップラウンド)による勾配追跡、ハイパーパラメータの慎重な選択、新しい分析フレームワークなど、いくつかの重要なアルゴリズム設計のアイデアを利用している。
関連論文リスト
- Lower Bounds and Optimal Algorithms for Non-Smooth Convex Decentralized Optimization over Time-Varying Networks [57.24087627267086]
通信ネットワークのノード間で分散的に格納された凸関数の総和を最小化するタスクについて検討する。
この問題を解決するのに必要な分散通信数と(サブ)漸進計算の下位境界が確立されている。
我々は,これらの下界に適合する最初の最適アルゴリズムを開発し,既存の最先端技術と比較して理論性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-28T10:28:45Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Q-SHED: Distributed Optimization at the Edge via Hessian Eigenvectors
Quantization [5.404315085380945]
ニュートン型(NT)法は、DO問題における堅牢な収束率の実現要因として提唱されている。
インクリメンタルなヘッセン固有ベクトル量子化に基づく新しいビット割り当て方式を特徴とする、DOのための元のNTアルゴリズムであるQ-SHEDを提案する。
Q-SHEDはコンバージェンスに必要な通信ラウンド数を最大60%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-18T10:15:03Z) - Optimal Complexity in Non-Convex Decentralized Learning over
Time-Varying Networks [8.860889476382594]
時間変化ネットワークによる分散最適化は、機械学習の新たなパラダイムである。
大規模な深層トレーニングでは通信オーバーヘッドが大幅に削減され、特にノードの移動時の無線シナリオでは堅牢になる。
論文 参考訳(メタデータ) (2022-11-01T15:37:54Z) - Asynchronous Distributed Reinforcement Learning for LQR Control via Zeroth-Order Block Coordinate Descent [7.6860514640178]
分散強化学習のための新しいゼロ階最適化アルゴリズムを提案する。
これにより、各エージェントはコンセンサスプロトコルを使わずに、コスト評価を独立してローカル勾配を推定できる。
論文 参考訳(メタデータ) (2021-07-26T18:11:07Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。