論文の概要: On Second-order Optimization Methods for Federated Learning
- arxiv url: http://arxiv.org/abs/2109.02388v1
- Date: Mon, 6 Sep 2021 12:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:29:22.069920
- Title: On Second-order Optimization Methods for Federated Learning
- Title(参考訳): フェデレーション学習における2次最適化法について
- Authors: Sebastian Bischoff, Stephan G\"unnemann, Martin Jaggi, Sebastian U.
Stich
- Abstract要約: フェデレート学習環境における局所的なステップを持つ2階分散手法の性能評価を行った。
本稿では,更新のための2階ローカル情報とグローバルライン検索を用いて,結果の局所的特異性に対処する新たな変種を提案する。
- 参考スコア(独自算出の注目度): 59.787198516188425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider federated learning (FL), where the training data is distributed
across a large number of clients. The standard optimization method in this
setting is Federated Averaging (FedAvg), which performs multiple local
first-order optimization steps between communication rounds. In this work, we
evaluate the performance of several second-order distributed methods with local
steps in the FL setting which promise to have favorable convergence properties.
We (i) show that FedAvg performs surprisingly well against its second-order
competitors when evaluated under fair metrics (equal amount of local
computations)-in contrast to the results of previous work. Based on our
numerical study, we propose (ii) a novel variant that uses second-order local
information for updates and a global line search to counteract the resulting
local specificity.
- Abstract(参考訳): フェデレーション学習 (federated learning, fl) を考えると,トレーニングデータは多数のクライアントに分散する。
この設定における標準的な最適化方法はフェデレーション平均化(FedAvg)であり、通信ラウンド間で複数の局所的な一階最適化ステップを実行する。
そこで本研究では,コンバージェンス特性を持つことを約束するFL設定において,局所的なステップを持つ2階分散手法の性能を評価する。
我々は,FedAvgが,前回の結果とは対照的に,公正な測定値(局所計算量)で評価した場合,2次競合に対して驚くほど高い性能を示すことを示す。
そこで本研究では,第2次局所情報を更新に利用し,その結果の局所的特異性に対抗すべく,グローバルライン探索を行う新しい手法を提案する。
関連論文リスト
- Aiding Global Convergence in Federated Learning via Local Perturbation and Mutual Similarity Information [6.767885381740953]
分散最適化パラダイムとしてフェデレートラーニングが登場した。
本稿では,各クライアントが局所的に摂動勾配のステップを実行する,新しいフレームワークを提案する。
我々は,FedAvgと比較して,アルゴリズムの収束速度が30のグローバルラウンドのマージンとなることを示す。
論文 参考訳(メタデータ) (2024-10-07T23:14:05Z) - Double-Bounded Optimal Transport for Advanced Clustering and
Classification [58.237576976486544]
本稿では,2つの境界内での目標分布の制限を前提としたDB-OT(Douubly bounded Optimal Transport)を提案する。
提案手法は,テスト段階における改良された推論方式により,良好な結果が得られることを示す。
論文 参考訳(メタデータ) (2024-01-21T07:43:01Z) - Enhanced Federated Optimization: Adaptive Unbiased Client Sampling with Reduced Variance [37.646655530394604]
Federated Learning(FL)は、ローカルデータを収集することなく、複数のデバイスでグローバルモデルをトレーニングする分散学習パラダイムである。
独立サンプリング手法を用いて,最初の適応型クライアントサンプリング器K-Vibを提案する。
K-Vibは、一連の通信予算の中で、後悔すべき$tildemathcalObig(Nfrac13Tfrac23/Kfrac43big)$の線形スピードアップを達成する。
論文 参考訳(メタデータ) (2023-10-04T10:08:01Z) - Preconditioned Federated Learning [7.7269332266153326]
Federated Learning(FL)は、コミュニケーションの効率的かつプライバシ保護の方法でモデルトレーニングを可能にする分散機械学習アプローチである。
FedAvgは、現代の一階適応最適化と比較してアルゴリズム適応性を欠いていると考えられている。
局所適応性(PreFed)とサーバ側適応性(PreFedOp)の2つのフレームワークに基づく通信効率の高い新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-20T14:58:47Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - FOSI: Hybrid First and Second Order Optimization [11.447526245792154]
本稿では,最適化プロセス中に二階情報を効率的に組み込むことにより,任意の一階目の性能を向上させるメタアルゴリズムFOSIを提案する。
我々の経験的評価は、FOSIがヘビーボールやアダムのような一階法の収束率と最適化時間を向上し、二階法(K-FAC, L-BFGS)よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-02-16T18:45:46Z) - Speeding up Heterogeneous Federated Learning with Sequentially Trained
Superclients [19.496278017418113]
フェデレートラーニング(FL)は、ローカルなデータ共有を必要とせず、エッジデバイスの協調を可能にすることにより、プライバシに制約のあるシナリオで機械学習モデルをトレーニングすることを可能にする。
このアプローチは、ローカルデータセットとクライアントの計算的不均一性の異なる統計分布のために、いくつかの課題を提起する。
我々は、多種多様なクライアント、すなわちスーパークオリエントの部分グループのシーケンシャルトレーニングを活用して、集中型パラダイムをプライバシに準拠した方法でエミュレートする新しいフレームワークであるFedSeqを提案する。
論文 参考訳(メタデータ) (2022-01-26T12:33:23Z) - Higher Performance Visual Tracking with Dual-Modal Localization [106.91097443275035]
Visual Object Tracking (VOT)は、堅牢性と正確性の両方に同期性を必要とする。
ONRによるロバストなローカリゼーション抑制器とOFCによるターゲットセンターへの正確なローカリゼーションにより、ターゲットローカリゼーションのためのデュアルモーダルフレームワークを提案します。
論文 参考訳(メタデータ) (2021-03-18T08:47:56Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。