論文の概要: Client Selection and Bandwidth Allocation in Wireless Federated Learning
Networks: A Long-Term Perspective
- arxiv url: http://arxiv.org/abs/2004.04314v1
- Date: Thu, 9 Apr 2020 01:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 03:30:44.252168
- Title: Client Selection and Bandwidth Allocation in Wireless Federated Learning
Networks: A Long-Term Perspective
- Title(参考訳): 無線フェデレーション学習ネットワークにおけるクライアント選択と帯域割り当て : 長期的展望
- Authors: Jie Xu, Heqiang Wang
- Abstract要約: 本稿では,従来の無線ネットワークにおけるフェデレーション学習(FL)について検討し,学習クライアントがコーディネートサーバに共通の無線リンクを共有して,そのローカルデータを用いてフェデレーションモデルトレーニングを行う。
このような無線連系学習ネットワーク(WFLN)において、学習性能の最適化は、無線とクライアントのエネルギー資源が限られているため、クライアントの選択方法と学習ラウンド毎に選択したクライアント間の帯域幅の割り当てに大きく依存する。
- 参考スコア(独自算出の注目度): 8.325089307976654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies federated learning (FL) in a classic wireless network,
where learning clients share a common wireless link to a coordinating server to
perform federated model training using their local data. In such wireless
federated learning networks (WFLNs), optimizing the learning performance
depends crucially on how clients are selected and how bandwidth is allocated
among the selected clients in every learning round, as both radio and client
energy resources are limited. While existing works have made some attempts to
allocate the limited wireless resources to optimize FL, they focus on the
problem in individual learning rounds, overlooking an inherent yet critical
feature of federated learning. This paper brings a new long-term perspective to
resource allocation in WFLNs, realizing that learning rounds are not only
temporally interdependent but also have varying significance towards the final
learning outcome. To this end, we first design data-driven experiments to show
that different temporal client selection patterns lead to considerably
different learning performance. With the obtained insights, we formulate a
stochastic optimization problem for joint client selection and bandwidth
allocation under long-term client energy constraints, and develop a new
algorithm that utilizes only currently available wireless channel information
but can achieve long-term performance guarantee. Further experiments show that
our algorithm results in the desired temporal client selection pattern, is
adaptive to changing network environments and far outperforms benchmarks that
ignore the long-term effect of FL.
- Abstract(参考訳): 本稿では,従来の無線ネットワークにおけるフェデレーション学習(FL)について検討し,学習クライアントがコーディネートサーバに共通の無線リンクを共有して,ローカルデータを用いてフェデレーションモデルトレーニングを行う。
このような無線フェデレーション学習ネットワーク(WFLN)では、無線とクライアントのエネルギー資源が限られているため、クライアントの選択方法や、各学習ラウンドで選択したクライアント間で帯域幅を割り当てる方法に大きく依存する。
既存の研究は、FLを最適化するために限られた無線リソースを割り当てようと試みてきたが、彼らは個々の学習ラウンドにおける問題に注目し、フェデレーション学習の本質的かつ重要な特徴を見落としている。
本稿では,学習ラウンドが時間的に相互依存するだけでなく,最終学習結果に対して異なる意味を持つことを認識して,WFLNの資源配分に新たな長期的視点をもたらす。
この目的のために、まずデータ駆動実験を設計し、異なる時間的クライアント選択パターンが、かなり異なる学習性能をもたらすことを示す。
得られた知見に基づき、長期クライアントエネルギー制約下での連系クライアント選択と帯域幅割り当てのための確率的最適化問題を定式化し、現在利用可能な無線チャネル情報のみを利用するが、長期的な性能保証を実現する新しいアルゴリズムを開発した。
さらなる実験により,提案アルゴリズムは所望の時間的クライアント選択パターンとなり,ネットワーク環境の変化に適応し,FLの長期的影響を無視するベンチマークをはるかに上回っていることが示された。
関連論文リスト
- Emulating Full Client Participation: A Long-Term Client Selection Strategy for Federated Learning [48.94952630292219]
本稿では,クライアントの完全参加によって達成されるパフォーマンスをエミュレートする新しいクライアント選択戦略を提案する。
1ラウンドで、クライアントサブセットとフルクライアントセット間の勾配空間推定誤差を最小化し、クライアントを選択する。
複数ラウンド選択において、類似したデータ分布を持つクライアントが選択される頻度に類似することを保証する、新しい個性制約を導入する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - DynamicFL: Balancing Communication Dynamics and Client Manipulation for
Federated Learning [6.9138560535971605]
Federated Learning(FL)は、数百万のエッジデバイスにわたる分散データを活用することで、グローバルモデルをトレーニングすることを目的としている。
地理的に分散したエッジデバイスと非常にダイナミックなネットワークが混在していることを考えると、参加するデバイスからすべてのモデル更新を集約すると、FLでは必然的な長期遅延が発生する。
本稿では,クライアント操作戦略を特別に設計した大規模エッジデバイスにおける通信力学とデータ品質を考慮した新しいFLフレームワークであるDynamicFLを提案する。
論文 参考訳(メタデータ) (2023-07-16T19:09:31Z) - Joint Age-based Client Selection and Resource Allocation for
Communication-Efficient Federated Learning over NOMA Networks [8.030674576024952]
FL(Federated Learning)では、分散クライアントは、自身のトレーニングデータをローカルに保持しながら、共有グローバルモデルを共同でトレーニングすることができる。
本稿では,非直交多重アクセス(NOMA)を利用した無線ネットワーク上でのFLにおける各ラウンドの総時間消費を最小化することを目的とした,クライアント選択とリソース割り当ての協調最適化問題を定式化する。
さらに、各ラウンドで選択されていないクライアントのFLモデルを予測し、FL性能をさらに向上するために、サーバサイド人工知能ニューラルネットワーク(ANN)を提案する。
論文 参考訳(メタデータ) (2023-04-18T13:58:16Z) - Client Selection for Generalization in Accelerated Federated Learning: A
Multi-Armed Bandit Approach [20.300740276237523]
フェデレート・ラーニング(Federated Learning, FL)は、ローカルデータセットを保持する複数のノード(すなわちクライアント)にわたるモデルをトレーニングするために使用される機械学習(ML)パラダイムである。
FL(Bandit Scheduling for FL)と呼ばれる,この目標を達成するための新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-03-18T09:45:58Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Addressing Client Drift in Federated Continual Learning with Adaptive
Optimization [10.303676184878896]
本稿では,NetTailorを連続学習候補として活用することにより,FCL(Federated Continual Learning)を実現するための枠組みを概説する。
適応型フェデレーション最適化は,クライアントドリフトの悪影響を低減し,CIFAR100,MiniImagenet,Deathlonベンチマーク上での有効性を示す。
論文 参考訳(メタデータ) (2022-03-24T20:00:03Z) - Context-Aware Online Client Selection for Hierarchical Federated
Learning [33.205640790962505]
フェデレートラーニング(FL)は、データプライバシ問題に対処するための魅力的なフレームワークだと考えられている。
フェデレートラーニング(FL)は、データプライバシ問題に対処するための魅力的なフレームワークだと考えられている。
論文 参考訳(メタデータ) (2021-12-02T01:47:01Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - Federated Continual Learning with Weighted Inter-client Transfer [79.93004004545736]
我々は,新しい連合型連続学習フレームワークFederated Weighted Inter-client Transfer(FedWeIT)を提案する。
FedWeITは、ネットワークの重みをグローバルなフェデレーションパラメータとスパースなタスク固有のパラメータに分解し、各クライアントは他のクライアントから選択的な知識を受け取る。
我々はFedWeITを既存のフェデレーション学習法や継続学習法に対して検証し、我々のモデルは通信コストを大幅に削減してそれらを著しく上回っている。
論文 参考訳(メタデータ) (2020-03-06T13:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。