論文の概要: Achieving Statistical Optimality of Federated Learning: Beyond
Stationary Points
- arxiv url: http://arxiv.org/abs/2106.15216v1
- Date: Tue, 29 Jun 2021 09:59:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:34:05.746697
- Title: Achieving Statistical Optimality of Federated Learning: Beyond
Stationary Points
- Title(参考訳): フェデレーション学習の統計的最適性:定点を超えて
- Authors: Lili Su, Jiaming Xu, Pengkun Yang
- Abstract要約: Federated Learning(FL)は、プライバシ保護とクラウドでの計算負荷の低減に大きな可能性を持つ、有望なフレームワークである。
最近の研究は、(1)その固定点が元の最適化問題の定常点に対応していないこと、(2)見いだされた共通モデルが局所的にうまく一般化できないこと、の2つの方法に対する懸念を提起している。
一般的なカーネル回帰設定では、FedAvgとFedProxの両方が極小最大誤差率に収束することを示す。
- 参考スコア(独自算出の注目度): 19.891597817559038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a promising framework that has great potentials in
privacy preservation and in lowering the computation load at the cloud. FedAvg
and FedProx are two widely adopted algorithms. However, recent work raised
concerns on these two methods: (1) their fixed points do not correspond to the
stationary points of the original optimization problem, and (2) the common
model found might not generalize well locally.
In this paper, we alleviate these concerns. Towards this, we adopt the
statistical learning perspective yet allow the distributions to be
heterogeneous and the local data to be unbalanced. We show, in the general
kernel regression setting, that both FedAvg and FedProx converge to the
minimax-optimal error rates. Moreover, when the kernel function has a finite
rank, the convergence is exponentially fast. Our results further analytically
quantify the impact of the model heterogeneity and characterize the federation
gain - the reduction of the estimation error for a worker to join the federated
learning compared to the best local estimator. To the best of our knowledge, we
are the first to show the achievability of minimax error rates under FedAvg and
FedProx, and the first to characterize the gains in joining FL. Numerical
experiments further corroborate our theoretical findings on the statistical
optimality of FedAvg and FedProx and the federation gains.
- Abstract(参考訳): Federated Learning(FL)は、プライバシ保護とクラウドでの計算負荷の低減に大きな可能性を持つ、有望なフレームワークである。
FedAvgとFedProxは広く採用されている2つのアルゴリズムである。
しかし、最近の研究は、(1)その固定点が元の最適化問題の定常点に対応していないこと、(2)見いだされた共通モデルが局所的にうまく一般化できないことを懸念している。
本稿ではこれらの懸念を緩和する。
これに向けて,統計学習の観点を取り入れつつ,分布を不均一にし,局所データを不均衡にする。
一般的なカーネル回帰設定では、FedAvgとFedProxの両方が極小最大誤差率に収束することを示す。
さらに、核関数が有限階数であるとき、収束は指数関数的に高速である。
さらに, モデルの不均一性の影響を解析的に定量化し, フェデレーションゲインを特徴付けることにより, 最適な局所推定器と比較して, 労働者がフェデレーション学習に参加する際の推定誤差を低減させる。
我々の知る限り、我々はFedAvgとFedProxの下でミニマックスエラー率の達成可能性を示す最初の人物であり、FLに加入する際の利益を特徴づける最初の人物である。
数値実験により、FedAvgとFedProxの統計的最適性とフェデレーションゲインに関する理論的知見がさらに裏付けられる。
関連論文リスト
- Can Decentralized Stochastic Minimax Optimization Algorithms Converge
Linearly for Finite-Sum Nonconvex-Nonconcave Problems? [56.62372517641597]
分散化されたミニマックス最適化は、幅広い機械学習に応用されているため、ここ数年で活発に研究されている。
本稿では,非コンカブ問題に対する2つの新しい分散化ミニマックス最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-24T02:19:39Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - On Convergence of FedProx: Local Dissimilarity Invariant Bounds,
Non-smoothness and Beyond [41.082982732100696]
我々はFedProxの収束理論とアルゴリズム安定性のレンズによるミニバッチ拡張の新しい局所的な相似性を開発する。
一連のベンチマークFLデータセットの予備実験結果が報告され、FedProxのサンプル効率を改善するためのミニバッチの利点を示す。
論文 参考訳(メタデータ) (2022-06-10T15:35:10Z) - On the Unreasonable Effectiveness of Federated Averaging with
Heterogeneous Data [39.600069116159695]
既存の理論では、フェデレーション学習におけるフェデレーション平均化(FedAvg)アルゴリズムの性能は、データの不均一性が低下すると予想している。
本稿では,従来の理論的予測と矛盾するFedAvgの有効性について述べる。
論文 参考訳(メタデータ) (2022-06-09T18:25:25Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Federated Composite Optimization [28.11253930828807]
Federated Learning(FL)は、デバイス上での学習を協調的にプライベートにスケールする分散学習パラダイムである。
FedAvgのような標準FLアルゴリズムは、主にスムーズな制約のない設定に向けられている。
本稿では,新しいサーバの二重平均化手法を用いることで,プライマリ・デュアル平均化の呪いを回避できる新しいプライマリ・デュアル平均化アルゴリズムであるフェデレート・デュアル平均化(FedDual Avg)を提案する。
論文 参考訳(メタデータ) (2020-11-17T06:54:06Z) - A Unified Linear Speedup Analysis of Federated Averaging and Nesterov
FedAvg [49.76940694847521]
フェデレーションラーニング(FL)は、互いにプライベートに保持されたデータを共有せずに、参加する一連のデバイスからモデルを共同で学習する。
本稿では,FedAvg(Federated Averaging, FedAvg)に焦点をあてる。
また,FedAvgは収束率や通信効率が異なるが,各ケースで線形スピードアップを享受していることを示す。
論文 参考訳(メタデータ) (2020-07-11T05:59:08Z) - FedDANE: A Federated Newton-Type Method [49.9423212899788]
フェデレートラーニングは、大規模分散データセット上で低統計モデルを共同で学習することを目的としている。
我々は、フェデレーション学習を扱うために、DANEから適応する最適化であるFedDANEを提案する。
論文 参考訳(メタデータ) (2020-01-07T07:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。