論文の概要: Exact Penalty Method for Federated Learning
- arxiv url: http://arxiv.org/abs/2208.11231v1
- Date: Tue, 23 Aug 2022 23:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:29:44.612250
- Title: Exact Penalty Method for Federated Learning
- Title(参考訳): フェデレーション学習のための厳格なペナルティ法
- Authors: Shenglong Zhou and and Geoffrey Ye Li
- Abstract要約: フェデレーテッド・ラーニング(Federated Learning)は最近、機械学習の分野で盛んになり、さまざまな研究トピックが生まれている。
本稿では,フェデレート学習を扱うための正確なペナルティ手法を展開し,フェデレーション学習における4つの重要な問題に対処するアルゴリズムであるFedEPMを提案する。
収束性があり、高い数値性能を持つことが証明されている。
- 参考スコア(独自算出の注目度): 34.70820239954457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has burgeoned recently in machine learning, giving rise to
a variety of research topics. Popular optimization algorithms are based on the
frameworks of the (stochastic) gradient descent methods or the alternating
direction method of multipliers. In this paper, we deploy an exact penalty
method to deal with federated learning and propose an algorithm, FedEPM, that
enables to tackle four critical issues in federated learning: communication
efficiency, computational complexity, stragglers' effect, and data privacy.
Moreover, it is proven to be convergent and testified to have high numerical
performance.
- Abstract(参考訳): フェデレーション学習は最近、機械学習で急速に発展し、さまざまな研究トピックを生み出している。
一般的な最適化アルゴリズムは、(確率的な)勾配降下法や乗算器の交互方向法の枠組みに基づいている。
本稿では,フェデレート学習を扱うための厳密なペナルティ手法を展開し,フェデレーション学習における4つの重要な問題(通信効率,計算複雑性,ストラグラー効果,データプライバシー)に対処するアルゴリズムであるFedEPMを提案する。
さらに, 収束性が証明され, 高い数値的性能を示すことが証明された。
関連論文リスト
- FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Federated Compositional Deep AUC Maximization [58.25078060952361]
本研究では,曲線(AUC)のスコアを直接最適化することにより,不均衡なデータに対する新しいフェデレート学習法を開発した。
私たちの知る限りでは、このような好ましい理論的な結果を達成した最初の作品である。
論文 参考訳(メタデータ) (2023-04-20T05:49:41Z) - Distillation Policy Optimization [5.439020425819001]
本研究では,評価と制御の両面において2つのデータソースを調和させるアクタ批判学習フレームワークを提案する。
このフレームワークには、統一利便推定器(UAE)と残留基線を含む分散還元機構が組み込まれている。
以上の結果から,オンラインアルゴリズムのサンプル効率は大幅に向上し,非政治的アプローチとのギャップを効果的に埋めることができた。
論文 参考訳(メタデータ) (2023-02-01T15:59:57Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - FedGiA: An Efficient Hybrid Algorithm for Federated Learning [39.777714678378736]
フェデレートラーニングは最近その進歩を見せているが、まだ多くの課題に直面している。
本稿では,乗算器の勾配降下と不正確な交互方向法を組み合わせたハイブリッド・フェデレーション学習アルゴリズム(FedGiA)を提案する。
論文 参考訳(メタデータ) (2022-05-03T11:56:33Z) - Federated Learning via Inexact ADMM [46.99210047518554]
本稿では,乗算器の不正確な交互方向法(ADMM)を提案する。
どちらも通信効率が高く、ストラグラー効果と戦うことができ、穏やかな条件下で収束する。
フェデレート学習のためのいくつかの最先端アルゴリズムと比較して高い数値性能を持つ。
論文 参考訳(メタデータ) (2022-04-22T09:55:33Z) - Accelerating Federated Edge Learning via Topology Optimization [41.830942005165625]
フェデレートエッジラーニング(FEEL)は、プライバシー保護の分散ラーニングを実現するための有望なパラダイムとして考えられている。
ストラグラー装置の存在により、過度の学習時間を消費する。
フェデレーション学習における不均一性問題に対処するために,新しいトポロジ最適化フェデレーション・エッジ・ラーニング(TOFEL)手法を提案する。
論文 参考訳(メタデータ) (2022-04-01T14:49:55Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。