論文の概要: A dual approach for federated learning
- arxiv url: http://arxiv.org/abs/2201.11183v1
- Date: Wed, 26 Jan 2022 20:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 15:00:31.169456
- Title: A dual approach for federated learning
- Title(参考訳): 連合学習のための双対的アプローチ
- Authors: Zhenan Fan, Huang Fang, Michael P. Friedlander
- Abstract要約: 我々は,Necoraらが開発した座標降下法に基づいて,FedDCDと呼ばれる新しいアルゴリズムを提案する。
提案手法は, 厳密な条件下での最先端の予備的フェデレーション最適化アルゴリズムよりも収束率が高いことを理論的に実証する。
- 参考スコア(独自算出の注目度): 7.258643218674018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the federated optimization problem from a dual perspective and
propose a new algorithm termed federated dual coordinate descent (FedDCD),
which is based on a type of coordinate descent method developed by Necora et
al. [Journal of Optimization Theory and Applications, 2017]. Additionally, we
enhance the FedDCD method with inexact gradient oracles and Nesterov's
acceleration. We demonstrate theoretically that our proposed approach achieves
better convergence rates than the state-of-the-art primal federated
optimization algorithms under mild conditions. Numerical experiments on
real-world datasets support our analysis.
- Abstract(参考訳): 両視点からフェデレーション最適化問題を検討し,Necoraらによって開発された座標降下法に基づくフェデレーション・デュアル座標降下法(FedDCD)と呼ばれる新しいアルゴリズムを提案する。
[最適化理論と応用史、2017年)
さらに,不正確な勾配オラクルとネステロフ加速度でFedDCD法を強化した。
提案手法は, 厳密な条件下での最先端の予備的フェデレーション最適化アルゴリズムよりも収束率が高いことを理論的に実証する。
実世界のデータセットに関する数値実験は、我々の分析を支援する。
関連論文リスト
- On the Communication Complexity of Decentralized Bilevel Optimization [40.45379954138305]
本稿では,更新戦略の同時および交互化に基づく2つの新しい分散二段階勾配勾配アルゴリズムを提案する。
我々のアルゴリズムは既存の手法よりも高速な収束率と通信コストを抑えることができる。
このような理論的な結果は、不均一な環境での軽微な仮定で達成されたのはこれが初めてである。
論文 参考訳(メタデータ) (2023-11-19T14:56:26Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Federated Compositional Deep AUC Maximization [58.25078060952361]
本研究では,曲線(AUC)のスコアを直接最適化することにより,不均衡なデータに対する新しいフェデレート学習法を開発した。
私たちの知る限りでは、このような好ましい理論的な結果を達成した最初の作品である。
論文 参考訳(メタデータ) (2023-04-20T05:49:41Z) - A Unified Momentum-based Paradigm of Decentralized SGD for Non-Convex
Models and Heterogeneous Data [0.261072980439312]
非汎用目的に対する収束保証を提供するU.MP,D-MP,GT-Dという統一パラダイムを提案する。
理論的には、これらの非MPアルゴリズムに対して収束解析目的を2つのアプローチで提供する。
論文 参考訳(メタデータ) (2023-03-01T02:13:22Z) - Communication-Efficient Federated Bilevel Optimization with Local and
Global Lower Level Problems [118.00379425831566]
我々はFedBiOAccという通信効率の高いアルゴリズムを提案する。
我々は、FedBiOAcc-Localがこの種の問題に対して同じ速度で収束していることを証明する。
実験結果から,アルゴリズムの性能が向上した。
論文 参考訳(メタデータ) (2023-02-13T21:28:53Z) - On the Convergence of Momentum-Based Algorithms for Federated Stochastic
Bilevel Optimization Problems [22.988563731766586]
特に,このような問題を最適化するための運動量に基づく2つのアルゴリズムを開発した。
我々はこれらの2つのアルゴリズムの収束率を確立し、それらのサンプルと通信の複雑さを提供した。
論文 参考訳(メタデータ) (2022-04-28T06:14:21Z) - Gradient Descent Averaging and Primal-dual Averaging for Strongly Convex
Optimization [15.731908248435348]
強凸の場合の勾配降下平均化と主双進平均化アルゴリズムを開発する。
一次二重平均化は出力平均化の観点から最適な収束率を導出し、SC-PDAは最適な個々の収束を導出する。
SVMとディープラーニングモデルに関するいくつかの実験は、理論解析の正確性とアルゴリズムの有効性を検証する。
論文 参考訳(メタデータ) (2020-12-29T01:40:30Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。