論文の概要: FedGiA: An Efficient Hybrid Algorithm for Federated Learning
- arxiv url: http://arxiv.org/abs/2205.01438v6
- Date: Fri, 19 Apr 2024 13:14:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 20:46:02.131924
- Title: FedGiA: An Efficient Hybrid Algorithm for Federated Learning
- Title(参考訳): FedGiA: フェデレートラーニングのための効率的なハイブリッドアルゴリズム
- Authors: Shenglong Zhou, Geoffrey Ye Li,
- Abstract要約: フェデレートラーニングは最近その進歩を見せているが、まだ多くの課題に直面している。
本稿では,乗算器の勾配降下と不正確な交互方向法を組み合わせたハイブリッド・フェデレーション学習アルゴリズム(FedGiA)を提案する。
- 参考スコア(独自算出の注目度): 39.777714678378736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has shown its advances recently but is still facing many challenges, such as how algorithms save communication resources and reduce computational costs, and whether they converge. To address these critical issues, we propose a hybrid federated learning algorithm (FedGiA) that combines the gradient descent and the inexact alternating direction method of multipliers. The proposed algorithm is more communication- and computation-efficient than several state-of-the-art algorithms theoretically and numerically. Moreover, it also converges globally under mild conditions.
- Abstract(参考訳): フェデレートラーニングは近年進歩を見せているが、アルゴリズムが通信資源を節約し、計算コストを削減し、それらが収束するかどうかなど、多くの課題に直面している。
これらの重要な問題に対処するために、勾配降下法と乗算器の不正確な交互方向法を組み合わせたハイブリッド・フェデレーション学習アルゴリズム(FedGiA)を提案する。
提案アルゴリズムは, 理論的・数値的に複数の最先端アルゴリズムよりも, 通信効率が高く, 計算効率が高い。
また、温和な条件下では世界中に分布する。
関連論文リスト
- Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Communication-Efficient Federated Bilevel Optimization with Local and
Global Lower Level Problems [118.00379425831566]
我々はFedBiOAccという通信効率の高いアルゴリズムを提案する。
我々は、FedBiOAcc-Localがこの種の問題に対して同じ速度で収束していることを証明する。
実験結果から,アルゴリズムの性能が向上した。
論文 参考訳(メタデータ) (2023-02-13T21:28:53Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Exact Penalty Method for Federated Learning [34.70820239954457]
フェデレーテッド・ラーニング(Federated Learning)は最近、機械学習の分野で盛んになり、さまざまな研究トピックが生まれている。
本稿では,フェデレート学習を扱うための正確なペナルティ手法を展開し,フェデレーション学習における4つの重要な問題に対処するアルゴリズムであるFedEPMを提案する。
収束性があり、高い数値性能を持つことが証明されている。
論文 参考訳(メタデータ) (2022-08-23T23:33:38Z) - Federated Learning via Inexact ADMM [46.99210047518554]
本稿では,乗算器の不正確な交互方向法(ADMM)を提案する。
どちらも通信効率が高く、ストラグラー効果と戦うことができ、穏やかな条件下で収束する。
フェデレート学習のためのいくつかの最先端アルゴリズムと比較して高い数値性能を持つ。
論文 参考訳(メタデータ) (2022-04-22T09:55:33Z) - Convergence of a New Learning Algorithm [3.679678618747414]
新しい学習アルゴリズムは,従来のバックプロパゲーション学習アルゴリズムと数学的に等価であることが示されている。
新しいアルゴリズムの収束率を測定するために収束測度を提案する。
論文 参考訳(メタデータ) (2022-02-08T19:36:43Z) - Resource-constrained Federated Edge Learning with Heterogeneous Data:
Formulation and Analysis [8.863089484787835]
ヘテロジニアスデータによる不均一な統計的課題を解決するために, 分散されたニュートン型ニュートン型トレーニングスキームであるFedOVAを提案する。
FedOVAはマルチクラス分類問題をより単純なバイナリ分類問題に分解し、アンサンブル学習を用いてそれぞれの出力を結合する。
論文 参考訳(メタデータ) (2021-10-14T17:35:24Z) - AsySQN: Faster Vertical Federated Learning Algorithms with Better
Computation Resource Utilization [159.75564904944707]
垂直連合学習(VFL)のための非同期準ニュートン(AsySQN)フレームワークを提案する。
提案アルゴリズムは、逆ヘッセン行列を明示的に計算することなく、近似して降下ステップをスケールする。
本稿では,非同期計算を採用することにより,計算資源の有効利用が期待できることを示す。
論文 参考訳(メタデータ) (2021-09-26T07:56:10Z) - Multi-consensus Decentralized Accelerated Gradient Descent [31.76773130271547]
分散凸最適化問題は、大規模機械学習、センサーネットワーク、制御理論に幅広い応用がある。
本稿では,最適な計算複雑性とほぼ最適な通信複雑性を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-02T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。