論文の概要: Federated Learning via Inexact ADMM
- arxiv url: http://arxiv.org/abs/2204.10607v4
- Date: Sun, 24 Sep 2023 09:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 05:01:38.109627
- Title: Federated Learning via Inexact ADMM
- Title(参考訳): inexact admmによる連合学習
- Authors: Shenglong Zhou and Geoffrey Ye Li
- Abstract要約: 本稿では,乗算器の不正確な交互方向法(ADMM)を提案する。
どちらも通信効率が高く、ストラグラー効果と戦うことができ、穏やかな条件下で収束する。
フェデレート学習のためのいくつかの最先端アルゴリズムと比較して高い数値性能を持つ。
- 参考スコア(独自算出の注目度): 46.99210047518554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the crucial issues in federated learning is how to develop efficient
optimization algorithms. Most of the current ones require full device
participation and/or impose strong assumptions for convergence. Different from
the widely-used gradient descent-based algorithms, in this paper, we develop an
inexact alternating direction method of multipliers (ADMM), which is both
computation- and communication-efficient, capable of combating the stragglers'
effect, and convergent under mild conditions. Furthermore, it has a high
numerical performance compared with several state-of-the-art algorithms for
federated learning.
- Abstract(参考訳): 連合学習における重要な問題の一つは、効率的な最適化アルゴリズムの開発方法である。
現在のもののほとんどは、完全なデバイス参加と/または収束の強い仮定を必要とする。
本稿では,広範に使われている勾配降下に基づくアルゴリズムと異なり,計算および通信効率の両面においてトラグラー効果に対抗し,緩やかな条件下で収束する乗算器の非接触交互方向法(ADMM)を開発する。
さらに、フェデレーション学習のための最先端アルゴリズムと比較して高い数値的性能を示す。
関連論文リスト
- Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Federated Compositional Deep AUC Maximization [58.25078060952361]
本研究では,曲線(AUC)のスコアを直接最適化することにより,不均衡なデータに対する新しいフェデレート学習法を開発した。
私たちの知る限りでは、このような好ましい理論的な結果を達成した最初の作品である。
論文 参考訳(メタデータ) (2023-04-20T05:49:41Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Faster Adaptive Momentum-Based Federated Methods for Distributed
Composition Optimization [14.579475552088692]
非分散合成問題の解法として,高速なフェデレート合成最適化アルゴリズム(MFCGDとAdaMFCGD)を提案する。
特に、我々の適応アルゴリズム(AdaMFCGD)は、様々な適応学習率を柔軟に組み込むために統一適応行列を使用する。
論文 参考訳(メタデータ) (2022-11-03T15:17:04Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Exact Penalty Method for Federated Learning [34.70820239954457]
フェデレーテッド・ラーニング(Federated Learning)は最近、機械学習の分野で盛んになり、さまざまな研究トピックが生まれている。
本稿では,フェデレート学習を扱うための正確なペナルティ手法を展開し,フェデレーション学習における4つの重要な問題に対処するアルゴリズムであるFedEPMを提案する。
収束性があり、高い数値性能を持つことが証明されている。
論文 参考訳(メタデータ) (2022-08-23T23:33:38Z) - FedGiA: An Efficient Hybrid Algorithm for Federated Learning [39.777714678378736]
フェデレートラーニングは最近その進歩を見せているが、まだ多くの課題に直面している。
本稿では,乗算器の勾配降下と不正確な交互方向法を組み合わせたハイブリッド・フェデレーション学習アルゴリズム(FedGiA)を提案する。
論文 参考訳(メタデータ) (2022-05-03T11:56:33Z) - Communication-Efficient Stochastic Zeroth-Order Optimization for
Federated Learning [28.65635956111857]
フェデレートラーニング(FL)は、エッジデバイスがプライベートデータを共有せずに、グローバルモデルを協調的にトレーニングすることを可能にする。
FLの訓練効率を向上させるため,一階計算から一階法まで,様々なアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2022-01-24T08:56:06Z) - Fast Convergence Algorithm for Analog Federated Learning [30.399830943617772]
無線チャネル上での効率的なアナログフェデレーション学習のためのAirCompベースのFedSplitアルゴリズムを提案する。
提案アルゴリズムは, 目的関数が強く凸かつ滑らかであるという仮定の下で, 最適解に線形収束することを示す。
我々のアルゴリズムは、他のベンチマークFLアルゴリズムと比較して、より高速な収束を伴う不条件問題に対して、より堅牢であることが理論的および実験的に検証されている。
論文 参考訳(メタデータ) (2020-10-30T10:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。