論文の概要: Optimized Local Updates in Federated Learning via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2506.06337v1
- Date: Sat, 31 May 2025 19:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.191284
- Title: Optimized Local Updates in Federated Learning via Reinforcement Learning
- Title(参考訳): 強化学習によるフェデレーション学習におけるローカルアップデートの最適化
- Authors: Ali Murad, Bo Hui, Wei-Shinn Ku,
- Abstract要約: Federated Learning(FL)は、大規模分散データ上で協調的なモデルトレーニングを行う分散フレームワークである。
本稿では,クライアントモデルのトレーニングに必要なデータ量を最適化するために,DRL(Deep Reinforcement Learning)エージェントを利用する新しいフレームワークを提案する。
FLクライアントのトレーニングをアルゴリズムで行うと、複数のベンチマークデータセットやFLフレームワークの性能が向上することを示す。
- 参考スコア(独自算出の注目度): 18.672807303949728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a distributed framework for collaborative model training over large-scale distributed data, enabling higher performance while maintaining client data privacy. However, the nature of model aggregation at the centralized server can result in a performance drop in the presence of non-IID data across different clients. We remark that training a client locally on more data than necessary does not benefit the overall performance of all clients. In this paper, we devise a novel framework that leverages a Deep Reinforcement Learning (DRL) agent to select an optimized amount of data necessary to train a client model without oversharing information with the server. Starting without awareness of the client's performance, the DRL agent utilizes the change in training loss as a reward signal and learns to optimize the amount of training data necessary for improving the client's performance. Specifically, after each aggregation round, the DRL algorithm considers the local performance as the current state and outputs the optimized weights for each class, in the training data, to be used during the next round of local training. In doing so, the agent learns a policy that creates an optimized partition of the local training dataset during the FL rounds. After FL, the client utilizes the entire local training dataset to further enhance its performance on its own data distribution, mitigating the non-IID effects of aggregation. Through extensive experiments, we demonstrate that training FL clients through our algorithm results in superior performance on multiple benchmark datasets and FL frameworks. Our code is available at https://github.com/amuraddd/optimized_client_training.git.
- Abstract(参考訳): Federated Learning(FL)は、大規模分散データ上で協調的なモデルトレーニングを行う分散フレームワークであり、クライアントデータのプライバシを維持しながら高いパフォーマンスを実現する。
しかし、集中型サーバにおけるモデルアグリゲーションの性質は、異なるクライアントにまたがる非IIDデータの存在によってパフォーマンスが低下する可能性がある。
クライアントをもっと多くのデータでローカルにトレーニングすることは、すべてのクライアントの全体的なパフォーマンスを損なうものではない。
本稿では,ディープラーニング学習(DRL)エージェントを駆使して,サーバとの情報をオーバーシェアすることなく,クライアントモデルのトレーニングに必要なデータ量を最適化するフレームワークを考案する。
DRLエージェントは、クライアントのパフォーマンスを意識せずに開始し、トレーニング損失の変化を報奨信号として利用し、クライアントのパフォーマンスを改善するために必要なトレーニングデータの量を最適化することを学ぶ。
具体的には、各アグリゲーションラウンド後、DRLアルゴリズムは局所的な性能を現在の状態とみなし、トレーニングデータにおいて各クラスの最適化された重みを次のラウンドで使用するように出力する。
エージェントは、FLラウンド中にローカルトレーニングデータセットの最適化されたパーティションを生成するポリシーを学ぶ。
FLの後、クライアントはローカルトレーニングデータセット全体を使用して、独自のデータ分散のパフォーマンスをさらに向上し、アグリゲーションの非IID効果を軽減します。
広範にわたる実験により、FLクライアントのトレーニングが、複数のベンチマークデータセットやFLフレームワーク上での優れたパフォーマンスをもたらすことを示した。
私たちのコードはhttps://github.com/amuraddd/optimized_client_training.gitで利用可能です。
関連論文リスト
- Local Data Quantity-Aware Weighted Averaging for Federated Learning with Dishonest Clients [32.11272564261484]
フェデレートラーニング(FL)は、データをローカルクライアントを離れることなく、ディープラーニングモデルの協調トレーニングを可能にする。
最も一般的に使用される集約手法は、各クライアントからのデータの量に基づいて、各クライアントのコントリビューションを反映した重み付けアグリゲーションである。
We propose a novel secure underlineFederated underlineData qunderlineuantity-underlineaware weighted averaging method (FedDua)。
これにより、FLサーバはアップロードされたローカルモデル勾配に基づいて、各クライアントからのトレーニングデータの量を正確に予測できる。
論文 参考訳(メタデータ) (2025-04-17T01:50:24Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Federated Learning for Semantic Parsing: Task Formulation, Evaluation
Setup, New Algorithms [29.636944156801327]
複数のクライアントは、セマンティック解析データを共有せずに、1つのグローバルモデルを協調的にトレーニングする。
Lorarは、各ラウンド中のトレーニング損失の削減に基づいて、グローバルモデル更新に対する各クライアントのコントリビューションを調整する。
より小さなデータセットを持つクライアントは、より大きなパフォーマンス向上を享受する。
論文 参考訳(メタデータ) (2023-05-26T19:25:49Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - FLIS: Clustered Federated Learning via Inference Similarity for Non-IID
Data Distribution [7.924081556869144]
本稿では,クライアント集団をクラスタにグループ化し,共同でトレーニング可能なデータ配信を行う新しいアルゴリズムFLISを提案する。
CIFAR-100/10, SVHN, FMNISTデータセット上の最先端ベンチマークに対するFLISの利点を示す実験結果を示す。
論文 参考訳(メタデータ) (2022-08-20T22:10:48Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Data Selection for Efficient Model Update in Federated Learning [0.07614628596146598]
本稿では,グローバルモデルのトレーニングに必要なローカルデータの量を削減することを提案する。
本手法では, 局所データの特徴により敏感な部分と, 一般特徴抽出のための下位部分と, 上位部分とにモデルを分割する。
実験の結果,クライアントデータの特徴をグローバルモデルに転送できる地域データは1%未満であることがわかった。
論文 参考訳(メタデータ) (2021-11-05T14:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。