論文の概要: Towards Dynamic Resource Allocation and Client Scheduling in Hierarchical Federated Learning: A Two-Phase Deep Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2406.14910v1
- Date: Fri, 21 Jun 2024 07:01:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 12:34:06.851628
- Title: Towards Dynamic Resource Allocation and Client Scheduling in Hierarchical Federated Learning: A Two-Phase Deep Reinforcement Learning Approach
- Title(参考訳): 階層型フェデレーション学習における動的資源配分とクライアントスケジューリング:2相深層強化学習アプローチ
- Authors: Xiaojing Chen, Zhenyuan Li, Wei Ni, Xin Wang, Shunqing Zhang, Yanzan Sun, Shugong Xu, Qingqi Pei,
- Abstract要約: フェデレーション学習は、データを共有することなく、共有機械学習モデルをトレーニングするための実行可能なテクニックである。
本稿では,FLプロセスの学習遅延とモデル精度をオンラインにバランスさせるための2段階のDeep Deterministic Policy gradient(DDPG)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 40.082601481580426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a viable technique to train a shared machine learning model without sharing data. Hierarchical FL (HFL) system has yet to be studied regrading its multiple levels of energy, computation, communication, and client scheduling, especially when it comes to clients relying on energy harvesting to power their operations. This paper presents a new two-phase deep deterministic policy gradient (DDPG) framework, referred to as ``TP-DDPG'', to balance online the learning delay and model accuracy of an FL process in an energy harvesting-powered HFL system. The key idea is that we divide optimization decisions into two groups, and employ DDPG to learn one group in the first phase, while interpreting the other group as part of the environment to provide rewards for training the DDPG in the second phase. Specifically, the DDPG learns the selection of participating clients, and their CPU configurations and the transmission powers. A new straggler-aware client association and bandwidth allocation (SCABA) algorithm efficiently optimizes the other decisions and evaluates the reward for the DDPG. Experiments demonstrate that with substantially reduced number of learnable parameters, the TP-DDPG can quickly converge to effective polices that can shorten the training time of HFL by 39.4% compared to its benchmarks, when the required test accuracy of HFL is 0.9.
- Abstract(参考訳): フェデレートラーニング(FL)は、データを共有することなく、共有機械学習モデルをトレーニングするための実行可能なテクニックである。
階層FL (Hierarchical FL) システムは、特に電力供給にエネルギー収穫に依存しているクライアントにおいて、その複数のレベルのエネルギー、計算、通信、およびクライアントスケジューリングを段階的に改善することはまだ研究されていない。
本稿では,エネルギー収穫型HFLシステムにおけるFLプロセスの学習遅延とモデル精度をオンラインにバランスさせるため,新たな2相Deep Deterministic Policy gradient (DDPG) フレームワークである `TP-DDPG' を提案する。
鍵となる考え方は、最適化決定を2つのグループに分割し、DDPGを1つのフェーズで学習し、もう1つのグループを環境の一部として解釈し、第2フェーズでDDPGをトレーニングする報酬を提供するというものである。
具体的には、DDPGは、参加するクライアントの選択、CPU構成、送信パワーを学習する。
新たなトラグラー対応クライアントアソシエーションと帯域幅アロケーション(SCABA)アルゴリズムは,他の決定を効率的に最適化し,DDPGに対する報酬を評価する。
実験により、学習可能なパラメータの数が大幅に削減されたことにより、TP-DDPGは、要求されたHFLのテスト精度が0.9のとき、HFLのトレーニング時間を39.4%短縮できる効果的な警察に迅速に収束できることが示された。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Scheduling and Communication Schemes for Decentralized Federated
Learning [0.31410859223862103]
勾配降下(SGD)アルゴリズムを用いた分散連合学習(DFL)モデルが導入された。
DFLの3つのスケジューリングポリシーがクライアントと並列サーバ間の通信のために提案されている。
その結果,提案した計画警察は,収束速度と最終グローバルモデルの両方に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-27T17:35:28Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks [95.39148209543175]
大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
論文 参考訳(メタデータ) (2023-03-19T06:00:05Z) - Online Hyperparameter Optimization for Class-Incremental Learning [99.70569355681174]
クラス増分学習(Class-incremental Learning, CIL)は、クラス数がフェーズごとに増加する一方で、分類モデルを訓練することを目的としている。
CILの固有の課題は、安定性と塑性のトレードオフである。すなわち、CILモデルは古い知識を保ち、新しい知識を吸収するためにプラスチックを保たなければならない。
本稿では,事前設定を知らずにトレードオフを適応的に最適化するオンライン学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-11T17:58:51Z) - GTFLAT: Game Theory Based Add-On For Empowering Federated Learning
Aggregation Techniques [0.3867363075280543]
GTFLATはゲーム理論に基づくアドオンであり、重要な研究課題に対処する。
モデル集約フェーズにおける平均化に対してより効果的な適応重みを設定することにより、フェデレーション学習アルゴリズムは、より優れたパフォーマンスと訓練効率を実現することができるのか?
その結果、GTFLATを平均するとトップ1テストの精度は1.38%向上し、通信ラウンドは21.06%削減された。
論文 参考訳(メタデータ) (2022-12-08T06:39:51Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - A Fair Federated Learning Framework With Reinforcement Learning [23.675056844328]
フェデレートラーニング(Federated Learning, FL)は、多くのクライアントが中央サーバの協調の下でモデルを協調的にトレーニングするパラダイムである。
本稿では,クライアントにアグリゲーション重み付けを割り当てるポリシを自動的に学習するPG-FFLという強化学習フレームワークを提案する。
フレームワークの有効性を検証するため、多様なデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2022-05-26T15:10:16Z) - Behavior Mimics Distribution: Combining Individual and Group Behaviors
for Federated Learning [26.36851197666568]
フェデレートラーニング(FL)は、アクティブで有望な分散機械学習パラダイムとなっている。
近年の研究では, ローカル更新によるクライアントのドリフトにより, FL法の性能が劇的に低下していることが示されている。
本稿では,個人とグループの両方の行動を利用して分布を模倣する新しいフェデレート学習アルゴリズム(IGFL)を提案する。
論文 参考訳(メタデータ) (2021-06-23T10:42:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。