論文の概要: Joint Device Scheduling and Resource Allocation for Latency Constrained
Wireless Federated Learning
- arxiv url: http://arxiv.org/abs/2007.07174v1
- Date: Tue, 14 Jul 2020 16:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 15:45:36.160111
- Title: Joint Device Scheduling and Resource Allocation for Latency Constrained
Wireless Federated Learning
- Title(参考訳): 遅延制約型無線フェデレート学習のための協調デバイススケジューリングと資源割り当て
- Authors: Wenqi Shi, Sheng Zhou, Zhisheng Niu, Miao Jiang, Lu Geng
- Abstract要約: FL(Federated Learning)では、デバイスがローカルモデルの更新を無線チャネル経由でアップロードする。
モデル精度を最大化するために,共同装置スケジューリングと資源配分ポリシーを提案する。
実験の結果,提案手法は最先端のスケジューリング方式よりも優れていた。
- 参考スコア(独自算出の注目度): 26.813145949399427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In federated learning (FL), devices contribute to the global training by
uploading their local model updates via wireless channels. Due to limited
computation and communication resources, device scheduling is crucial to the
convergence rate of FL. In this paper, we propose a joint device scheduling and
resource allocation policy to maximize the model accuracy within a given total
training time budget for latency constrained wireless FL. A lower bound on the
reciprocal of the training performance loss, in terms of the number of training
rounds and the number of scheduled devices per round, is derived. Based on the
bound, the accuracy maximization problem is solved by decoupling it into two
sub-problems. First, given the scheduled devices, the optimal bandwidth
allocation suggests allocating more bandwidth to the devices with worse channel
conditions or weaker computation capabilities. Then, a greedy device scheduling
algorithm is introduced, which in each step selects the device consuming the
least updating time obtained by the optimal bandwidth allocation, until the
lower bound begins to increase, meaning that scheduling more devices will
degrade the model accuracy. Experiments show that the proposed policy
outperforms state-of-the-art scheduling policies under extensive settings of
data distributions and cell radius.
- Abstract(参考訳): フェデレーション学習(fl)では、デバイスはワイヤレスチャネルを介してローカルモデルのアップデートをアップロードすることで、グローバルなトレーニングに寄与する。
計算量や通信資源が限られているため、デバイススケジューリングはFLの収束速度に不可欠である。
本稿では,遅延制約のある無線FLに対して,与えられたトレーニング時間予算のモデル精度を最大化するために,共同装置スケジューリングと資源割当ポリシを提案する。
訓練性能損失の相反性に対する低いバウンダリは、訓練ラウンド数と1ラウンド当たりの予定装置数との観点から導出される。
この境界に基づいて、精度最大化問題は2つのサブプロブレムに分解することで解決される。
まず、スケジュールされたデバイスを考えると、最適な帯域割り当ては、より悪いチャネル条件や計算能力の弱いデバイスへの帯域幅を割り当てることを示唆する。
そして、各ステップにおいて、最適な帯域割り当てによって得られる最小更新時間を消費する装置を、下限が増加するまで選択する欲望デバイススケジューリングアルゴリズムを導入することにより、より多くのデバイスがモデル精度を低下させる。
実験により,提案手法は,データ分布とセル半径の広範囲な設定の下で,最先端のスケジューリングポリシーより優れていることが示された。
関連論文リスト
- FLARE: A New Federated Learning Framework with Adjustable Learning Rates over Resource-Constrained Wireless Networks [20.048146776405005]
ワイヤレス・フェデレート・ラーニング(WFL)は、データ分散、計算能力、チャネル条件などにおいて不均一性に悩まされている。
本稿では,Federated Learning Adjusted lean ratE (FLR ratE)による新しいアイデアを提案する。
FLAREが一貫してベースラインを上回っている実験。
論文 参考訳(メタデータ) (2024-04-23T07:48:17Z) - Device Scheduling for Relay-assisted Over-the-Air Aggregation in
Federated Learning [9.735236606901038]
フェデレートラーニング(FL)は、ネットワークの端で分散されたデータを活用して、インテリジェントなアプリケーションを実現する。
本稿では,リレー支援FLフレームワークを提案し,リレー支援FLシステムにおけるデバイススケジューリング問題について検討する。
論文 参考訳(メタデータ) (2023-12-15T03:04:39Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC [21.267954799102874]
Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-21T23:07:41Z) - Convergence of Update Aware Device Scheduling for Federated Learning at
the Wireless Edge [84.55126371346452]
遠隔パラメータサーバ(PS)の助けを借りて、ローカルデータセットを持つパワー制限デバイスが共同でジョイントモデルを訓練する無線エッジにおけるフェデレーション学習について研究する。
各ラウンドで送信するデバイスのサブセットを決定する新しいスケジューリングとリソース割り当てポリシーを設計する。
数値実験の結果,提案したスケジューリングポリシーは,チャネル条件と局所モデル更新の重要性の両方に基づいており,両者の指標のみに基づくスケジューリングポリシーよりも長期的性能がよいことがわかった。
論文 参考訳(メタデータ) (2020-01-28T15:15:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。