論文の概要: FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data
- arxiv url: http://arxiv.org/abs/2309.09719v1
- Date: Mon, 18 Sep 2023 12:35:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:43:47.689781
- Title: FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data
- Title(参考訳): FedLALR:IIDデータの線形高速化を実現するクライアント特化型学習率
- Authors: Hao Sun, Li Shen, Shixiang Chen, Jingwei Sun, Jing Li, Guangzhong Sun,
and Dacheng Tao
- Abstract要約: フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
- 参考スコア(独自算出の注目度): 54.81695390763957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is an emerging distributed machine learning method,
enables a large number of clients to train a model without exchanging their
local data. The time cost of communication is an essential bottleneck in
federated learning, especially for training large-scale deep neural networks.
Some communication-efficient federated learning methods, such as FedAvg and
FedAdam, share the same learning rate across different clients. But they are
not efficient when data is heterogeneous. To maximize the performance of
optimization methods, the main challenge is how to adjust the learning rate
without hurting the convergence. In this paper, we propose a heterogeneous
local variant of AMSGrad, named FedLALR, in which each client adjusts its
learning rate based on local historical gradient squares and synchronized
learning rates. Theoretical analysis shows that our client-specified auto-tuned
learning rate scheduling can converge and achieve linear speedup with respect
to the number of clients, which enables promising scalability in federated
optimization. We also empirically compare our method with several
communication-efficient federated optimization methods. Extensive experimental
results on Computer Vision (CV) tasks and Natural Language Processing (NLP)
task show the efficacy of our proposed FedLALR method and also coincides with
our theoretical findings.
- Abstract(参考訳): フェデレーション学習(federated learning)は、新たな分散機械学習手法であり、多数のクライアントがローカルデータを交換することなくモデルをトレーニングできる。
コミュニケーションの時間コストは、特に大規模ディープニューラルネットワークのトレーニングにおいて、連合学習において不可欠なボトルネックである。
FedAvgやFedAdamのようなコミュニケーション効率のよいフェデレーション学習手法は、異なるクライアント間で同じ学習率を共有している。
しかし、データが不均一である場合、効率は良くない。
最適化手法の性能を最大化するためには,コンバージェンスを損なうことなく学習率を調整する方法が主な課題である。
本稿では,amsgrad の局所的変種である fedlalr を提案し,各クライアントが局所的履歴勾配二乗法と同期学習率に基づいて学習率を調整する。
理論的解析により、クライアントが指定した学習速度スケジューリングは、クライアント数に対して線形スピードアップを収束させることができ、フェデレート最適化における有望なスケーラビリティを実現する。
また,提案手法を複数の通信効率のよいフェデレーション最適化手法と比較した。
コンピュータビジョン(cv)タスクと自然言語処理(nlp)タスクの広範な実験結果から,フェデラー法の有効性を示し,理論的知見とも一致した。
関連論文リスト
- Federated Learning based on Pruning and Recovery [0.0]
このフレームワークは非同期学習アルゴリズムとプルーニング技術を統合している。
異種デバイスを含むシナリオにおいて、従来のフェデレーション学習アルゴリズムの非効率性に対処する。
また、非同期アルゴリズムで特定のクライアントの不安定な問題や不適切なトレーニングにも取り組みます。
論文 参考訳(メタデータ) (2024-03-16T14:35:03Z) - Effectively Heterogeneous Federated Learning: A Pairing and Split
Learning Based Approach [16.093068118849246]
本稿では,クライアントと異なる計算資源をペアリングする,新しい分割フェデレーション学習(SFL)フレームワークを提案する。
グラフエッジ選択問題として,学習遅延の最適化を再構築し,グレディアルゴリズムを提案する。
シミュレーションの結果,提案手法はFLトレーニング速度を大幅に向上し,高い性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-08-26T11:10:54Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - SPATL: Salient Parameter Aggregation and Transfer Learning for
Heterogeneous Clients in Federated Learning [3.5394650810262336]
効率的なフェデレーション学習は、エッジデバイス上でAIモデルをトレーニングしデプロイする上で重要な課題の1つだ。
フェデレーション学習におけるデータのプライバシの維持は、データの均一性、高価な通信コスト、限られたリソースなど、いくつかの課題を引き起こす。
本稿では,ローカルクライアントの深層強化学習に基づく有能なパラメータ選択エージェントを提案し,選択した有能なパラメータを中央サーバに集約する。
論文 参考訳(メタデータ) (2021-11-29T06:28:05Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。