論文の概要: FedSplit: An algorithmic framework for fast federated optimization
- arxiv url: http://arxiv.org/abs/2005.05238v1
- Date: Mon, 11 May 2020 16:30:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 20:04:15.938391
- Title: FedSplit: An algorithmic framework for fast federated optimization
- Title(参考訳): FedSplit: 高速なフェデレーション最適化のためのアルゴリズムフレームワーク
- Authors: Reese Pathak, Martin J. Wainwright
- Abstract要約: 本稿では,分散凸最小化を付加構造で解くアルゴリズムのクラスであるFedSplitを紹介する。
これらの手法は, 中間局所量の不正確な計算に対して, 確実に堅牢であることを示す。
- 参考スコア(独自算出の注目度): 40.42352500741025
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Motivated by federated learning, we consider the hub-and-spoke model of
distributed optimization in which a central authority coordinates the
computation of a solution among many agents while limiting communication. We
first study some past procedures for federated optimization, and show that
their fixed points need not correspond to stationary points of the original
optimization problem, even in simple convex settings with deterministic
updates. In order to remedy these issues, we introduce FedSplit, a class of
algorithms based on operator splitting procedures for solving distributed
convex minimization with additive structure. We prove that these procedures
have the correct fixed points, corresponding to optima of the original
optimization problem, and we characterize their convergence rates under
different settings. Our theory shows that these methods are provably robust to
inexact computation of intermediate local quantities. We complement our theory
with some simple experiments that demonstrate the benefits of our methods in
practice.
- Abstract(参考訳): 本稿では,分散最適化のハブ・アンド・スポークモデルについて考察し,中央機関が通信を制限しながら,多数のエージェント間で解の計算を協調させる。
まず, 従来のフェデレーション最適化手法について検討し, その固定点が, 決定論的更新を伴う単純な凸設定であっても, 元の最適化問題の定常点と一致しないことを示す。
これらの問題を解決するために,演算子分割法に基づくアルゴリズムであるFedSplitを導入し,分散凸最小化を加法構造で解く。
これらの手順が元の最適化問題の最適値に対応する正しい固定点を持つことを証明し、それらの収束率を異なる設定で特徴づける。
本理論は,これらの手法が中間局所量の不等式計算に頑健であることを示す。
我々は我々の理論を、実践における方法の利点を示すいくつかの簡単な実験で補完する。
関連論文リスト
- Nonconvex Federated Learning on Compact Smooth Submanifolds With Heterogeneous Data [23.661713049508375]
本稿では,クライアントの設定においてサブマニフォールド上で学習するアルゴリズムを提案する。
提案アルゴリズムは,新しい解析手法を用いて一階最適解の近傍に部分収束することを示す。
論文 参考訳(メタデータ) (2024-06-12T17:53:28Z) - MUSIC: Accelerated Convergence for Distributed Optimization With Inexact
and Exact Methods [6.800113478497425]
本稿では,MUSICと名づけられた高速化されたフレームワークを提案し,各エージェントが複数のローカル更新と1つの組み合わせをイテレーション毎に実行できるようにする。
そこで我々は, 線形収束を高速化し, 通信効率を向上する2つの新しいアルゴリズムを考案した。
論文 参考訳(メタデータ) (2024-03-05T02:02:00Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Decentralized Inexact Proximal Gradient Method With Network-Independent
Stepsizes for Convex Composite Optimization [39.352542703876104]
本稿では,非方向および接続ネットワーク上での分散凸複合最適化について考察する。
CTA(Combine-Then-Adapt)に基づく新しい分散アルゴリズムは、非協調的なネットワーク非依存の定数ステップサイズの下で提案される。
論文 参考訳(メタデータ) (2023-02-07T03:50:38Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - On Accelerating Distributed Convex Optimizations [0.0]
本稿では,分散マルチエージェント凸最適化問題について検討する。
提案アルゴリズムは, 従来の勾配偏光法よりも収束率を向上し, 線形収束することを示す。
実ロジスティック回帰問題の解法として,従来の分散アルゴリズムと比較して,アルゴリズムの性能が優れていることを示す。
論文 参考訳(メタデータ) (2021-08-19T13:19:54Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z) - Second-Order Guarantees in Centralized, Federated and Decentralized
Nonconvex Optimization [64.26238893241322]
単純なアルゴリズムは、多くの文脈において優れた経験的結果をもたらすことが示されている。
いくつかの研究は、非最適化問題を研究するための厳密な分析的正当化を追求している。
これらの分析における重要な洞察は、摂動が局所的な降下アルゴリズムを許容する上で重要な役割を担っていることである。
論文 参考訳(メタデータ) (2020-03-31T16:54:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。