論文の概要: Efficient and Convergent Federated Learning
- arxiv url: http://arxiv.org/abs/2205.01438v1
- Date: Tue, 3 May 2022 11:56:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 16:07:55.202992
- Title: Efficient and Convergent Federated Learning
- Title(参考訳): 効率的・収束型フェデレーション学習
- Authors: Shenglong Zhou and Geoffrey Ye Li
- Abstract要約: 本稿では,乗算器の勾配降下と不正確な交互方向法を組み合わせた新しいフェデレーション学習アルゴリズム(FedGiA)を提案する。
FedGiAは温和な条件下で線形に計算され, 通信効率が良く, 収束することが示されている。
- 参考スコア(独自算出の注目度): 41.0031432841217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has shown its advances over the last few years but is
facing many challenges, such as how algorithms save communication resources,
how they reduce computational costs, and whether they converge. To address
these issues, this paper proposes a new federated learning algorithm (FedGiA)
that combines the gradient descent and the inexact alternating direction method
of multipliers. It is shown that FedGiA is computation and
communication-efficient and convergent linearly under mild conditions.
- Abstract(参考訳): フェデレーション学習はここ数年で進歩を見せているが、アルゴリズムがコミュニケーションリソースを節約する方法、計算コストの削減方法、収束するかどうかなど、多くの課題に直面している。
これらの問題に対処するため,乗算器の勾配降下と不正確な交互方向法を組み合わせた新しいフェデレーション学習アルゴリズム(FedGiA)を提案する。
FedGiAは温和な条件下で線形に計算・通信効率・収束性を示す。
関連論文リスト
- Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Communication-Efficient Federated Bilevel Optimization with Local and
Global Lower Level Problems [118.00379425831566]
我々はFedBiOAccという通信効率の高いアルゴリズムを提案する。
我々は、FedBiOAcc-Localがこの種の問題に対して同じ速度で収束していることを証明する。
実験結果から,アルゴリズムの性能が向上した。
論文 参考訳(メタデータ) (2023-02-13T21:28:53Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Exact Penalty Method for Federated Learning [34.70820239954457]
フェデレーテッド・ラーニング(Federated Learning)は最近、機械学習の分野で盛んになり、さまざまな研究トピックが生まれている。
本稿では,フェデレート学習を扱うための正確なペナルティ手法を展開し,フェデレーション学習における4つの重要な問題に対処するアルゴリズムであるFedEPMを提案する。
収束性があり、高い数値性能を持つことが証明されている。
論文 参考訳(メタデータ) (2022-08-23T23:33:38Z) - Federated Learning via Inexact ADMM [46.99210047518554]
本稿では,乗算器の不正確な交互方向法(ADMM)を提案する。
どちらも通信効率が高く、ストラグラー効果と戦うことができ、穏やかな条件下で収束する。
フェデレート学習のためのいくつかの最先端アルゴリズムと比較して高い数値性能を持つ。
論文 参考訳(メタデータ) (2022-04-22T09:55:33Z) - Convergence of a New Learning Algorithm [3.679678618747414]
新しい学習アルゴリズムは,従来のバックプロパゲーション学習アルゴリズムと数学的に等価であることが示されている。
新しいアルゴリズムの収束率を測定するために収束測度を提案する。
論文 参考訳(メタデータ) (2022-02-08T19:36:43Z) - Resource-constrained Federated Edge Learning with Heterogeneous Data:
Formulation and Analysis [8.863089484787835]
ヘテロジニアスデータによる不均一な統計的課題を解決するために, 分散されたニュートン型ニュートン型トレーニングスキームであるFedOVAを提案する。
FedOVAはマルチクラス分類問題をより単純なバイナリ分類問題に分解し、アンサンブル学習を用いてそれぞれの出力を結合する。
論文 参考訳(メタデータ) (2021-10-14T17:35:24Z) - AsySQN: Faster Vertical Federated Learning Algorithms with Better
Computation Resource Utilization [159.75564904944707]
垂直連合学習(VFL)のための非同期準ニュートン(AsySQN)フレームワークを提案する。
提案アルゴリズムは、逆ヘッセン行列を明示的に計算することなく、近似して降下ステップをスケールする。
本稿では,非同期計算を採用することにより,計算資源の有効利用が期待できることを示す。
論文 参考訳(メタデータ) (2021-09-26T07:56:10Z) - Multi-consensus Decentralized Accelerated Gradient Descent [31.76773130271547]
分散凸最適化問題は、大規模機械学習、センサーネットワーク、制御理論に幅広い応用がある。
本稿では,最適な計算複雑性とほぼ最適な通信複雑性を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-02T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。