論文の概要: Fast Convergent Federated Learning with Aggregated Gradients
- arxiv url: http://arxiv.org/abs/2303.15799v2
- Date: Sat, 1 Apr 2023 09:31:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 20:25:01.171258
- Title: Fast Convergent Federated Learning with Aggregated Gradients
- Title(参考訳): Aggregated Gradientsを用いた高速収束フェデレーション学習
- Authors: Wenhao Yuan and Xuehe Wang
- Abstract要約: Federated Learning(FL)は、新しい機械学習フレームワークである。
本稿では,局所パラメータと大域パラメータの偏差を考慮した適応学習率アルゴリズムを提案する。
数値計算の結果,提案手法はIIDデータセットと非IIDデータセットのモデル精度と収束率の両方において,最先端のFLスキームよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 1.599072005190786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a novel machine learning framework, which enables
multiple distributed devices cooperatively to train a shared model scheduled by
a central server while protecting private data locally. However, the
non-independent-and-identically-distributed (Non-IID) data samples and frequent
communication across participants may significantly slow down the convergent
rate and increase communication costs. To achieve fast convergence, we
ameliorate the conventional local updating rule by introducing the aggregated
gradients at each local update epoch, and propose an adaptive learning rate
algorithm that further takes the deviation of local parameter and global
parameter into consideration. The above adaptive learning rate design requires
all clients' local information including the local parameters and gradients,
which is challenging as there is no communication during the local update
epochs. To obtain a decentralized adaptive learning rate for each client, we
utilize the mean field approach by introducing two mean field terms to estimate
the average local parameters and gradients respectively, which does not require
the clients to exchange their local information with each other at each local
epoch. Numerical results show that our proposed framework is superior to the
state-of-art FL schemes in both model accuracy and convergent rate for IID and
Non-IID datasets.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、複数の分散デバイスが協調して、プライベートデータをローカルに保護しながら、中央サーバがスケジュールした共有モデルをトレーニングできる、新しい機械学習フレームワークである。
しかし、非独立分散(Non-IID)データサンプルと参加者間の頻繁なコミュニケーションは、収束率を著しく低下させ、通信コストを増大させる可能性がある。
高速収束を実現するために,各局所更新期間に集計勾配を導入することにより,従来の局所更新規則を改善し,さらに局所パラメータと大域パラメータの偏差を考慮した適応学習率アルゴリズムを提案する。
上記の適応学習率設計では、局所的なパラメータや勾配を含む全てのクライアントのローカル情報が必要である。
各クライアントに対して分散適応学習率を得るために,各ローカルエポックにおいて,各クライアントがそれぞれのローカル情報を交換する必要のない2つの平均場語を導入し,各ローカルパラメータと勾配を推定することで,平均場アプローチを利用する。
解析の結果,提案手法はIIDおよび非IIDデータセットのモデル精度と収束率の両方において,最先端のFL方式よりも優れていることがわかった。
関連論文リスト
- Modality Alignment Meets Federated Broadcasting [9.752555511824593]
フェデレートラーニング(FL)は、ローカルデータを集中化せずに、分散エッジデバイス間でモデルをトレーニングすることで、データのプライバシを保護する強力なアプローチとして登場した。
本稿では,テキストエンコーダをサーバ上に配置し,画像エンコーダをローカルデバイス上で動作させる,モダリティアライメントを利用した新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T13:30:03Z) - Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - Aiding Global Convergence in Federated Learning via Local Perturbation and Mutual Similarity Information [6.767885381740953]
分散最適化パラダイムとしてフェデレートラーニングが登場した。
本稿では,各クライアントが局所的に摂動勾配のステップを実行する,新しいフレームワークを提案する。
我々は,FedAvgと比較して,アルゴリズムの収束速度が30のグローバルラウンドのマージンとなることを示す。
論文 参考訳(メタデータ) (2024-10-07T23:14:05Z) - NTK-DFL: Enhancing Decentralized Federated Learning in Heterogeneous Settings via Neural Tangent Kernel [27.92271597111756]
Decentralized Federated Learning (DFL) は、中央サーバや生のデータ交換なしで参加者間でモデルをトレーニングするための、協調的な機械学習フレームワークである。
近年の研究では、集中型フレームワークにおけるフェデレーション学習に適用されたニューラルタンジェントカーネル(NTK)アプローチが、パフォーマンスの向上につながることが示されている。
本稿では,NTKベースの進化とモデル平均化の相乗効果を導入しながら,分散環境でクライアントモデルを訓練するためにNTKを活用するアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-02T18:19:28Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Robust Convergence in Federated Learning through Label-wise Clustering [6.693651193181458]
非IIDデータセットとローカルクライアントの不均一環境は、フェデレートラーニング(FL)における主要な課題であると見なされる
地理的に異質なローカルクライアント間のトレーサビリティを保証する新しいラベルワイドクラスタリングアルゴリズムを提案する。
提案手法は,他のFLアルゴリズムと比較して,高速でロバストな収束を示す。
論文 参考訳(メタデータ) (2021-12-28T18:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。