論文の概要: Joint Client Scheduling and Resource Allocation under Channel
Uncertainty in Federated Learning
- arxiv url: http://arxiv.org/abs/2106.06796v1
- Date: Sat, 12 Jun 2021 15:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:49:35.627206
- Title: Joint Client Scheduling and Resource Allocation under Channel
Uncertainty in Federated Learning
- Title(参考訳): フェデレート学習におけるチャネル不確実性を考慮した共同顧客スケジューリングと資源配分
- Authors: Madhusanka Manimel Wadu, Sumudu Samarakoon, Mehdi Bennis
- Abstract要約: 無線ネットワーク上のフェデレートラーニング(FL)は、クライアントサーバの接続性とクライアントのローカル計算能力の信頼性に依存する。
本稿では、FLを用いたモデルトレーニングの性能を高めるため、クライアントスケジューリングとリソースブロック(RB)割り当ての問題について検討する。
提案手法は,最先端クライアントスケジューリングやRBアロケーション手法と比較して,トレーニング精度損失のギャップを最大40.7%削減する。
- 参考スコア(独自算出の注目度): 47.97586668316476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of federated learning (FL) over wireless networks depend on
the reliability of the client-server connectivity and clients' local
computation capabilities. In this article we investigate the problem of client
scheduling and resource block (RB) allocation to enhance the performance of
model training using FL, over a pre-defined training duration under imperfect
channel state information (CSI) and limited local computing resources. First,
we analytically derive the gap between the training losses of FL with clients
scheduling and a centralized training method for a given training duration.
Then, we formulate the gap of the training loss minimization over client
scheduling and RB allocation as a stochastic optimization problem and solve it
using Lyapunov optimization. A Gaussian process regression-based channel
prediction method is leveraged to learn and track the wireless channel, in
which, the clients' CSI predictions and computing power are incorporated into
the scheduling decision. Using an extensive set of simulations, we validate the
robustness of the proposed method under both perfect and imperfect CSI over an
array of diverse data distributions. Results show that the proposed method
reduces the gap of the training accuracy loss by up to 40.7% compared to
state-of-theart client scheduling and RB allocation methods.
- Abstract(参考訳): 無線ネットワーク上での連合学習(fl)の性能は、クライアント-サーバ接続の信頼性とクライアントのローカル計算能力に依存する。
本稿では,不完全なチャネル状態情報(CSI)と限られたローカルコンピューティングリソースの下での事前定義されたトレーニング期間において,FLを用いたモデルトレーニングの性能を高めるためのクライアントスケジューリングとリソースブロック(RB)割り当ての問題について検討する。
まず、クライアントスケジューリングによるFLのトレーニング損失と、所定のトレーニング期間の集中訓練方法とのギャップを解析的に導出する。
そして,クライアントスケジューリングによるトレーニング損失最小化とRB割り当てのギャップを確率的最適化問題として定式化し,リアプノフ最適化を用いて解決する。
ガウス過程の回帰に基づくチャネル予測手法を用いて、クライアントのCSI予測と計算パワーをスケジューリング決定に組み込んだ無線チャネルを学習・追跡する。
提案手法は,多種多様なデータ分布の配列に対して,完全かつ不完全なcsi下でのロバスト性を検証する。
その結果,提案手法は,最先端クライアントスケジューリングやRBアロケーション手法と比較して,トレーニング精度損失のギャップを最大40.7%削減できることがわかった。
関連論文リスト
- Online Client Scheduling and Resource Allocation for Efficient Federated Edge Learning [9.451084740123198]
フェデレートラーニング(FL)は、エッジデバイスが生データを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、電力、帯域幅などの制約のあるリソースを持つモバイルエッジネットワーク上にFLをデプロイすることは、高いトレーニングレイテンシと低いモデルの精度に悩まされる。
本稿では,資源制約と不確実性の下で,モバイルエッジネットワーク上でのFLの最適なクライアントスケジューリングとリソース割り当てについて検討する。
論文 参考訳(メタデータ) (2024-09-29T01:56:45Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Effectively Heterogeneous Federated Learning: A Pairing and Split
Learning Based Approach [16.093068118849246]
本稿では,クライアントと異なる計算資源をペアリングする,新しい分割フェデレーション学習(SFL)フレームワークを提案する。
グラフエッジ選択問題として,学習遅延の最適化を再構築し,グレディアルゴリズムを提案する。
シミュレーションの結果,提案手法はFLトレーニング速度を大幅に向上し,高い性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-08-26T11:10:54Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - On the Convergence Time of Federated Learning Over Wireless Networks
Under Imperfect CSI [28.782485580296374]
チャネル統計をバイアスとして,不完全なcsi下での収束時間を最小化するトレーニングプロセスを提案する。
また,学習過程に関わるクライアント数とモデル精度とのトレードオフを,異なる失明状態の関数として検討した。
論文 参考訳(メタデータ) (2021-04-01T08:30:45Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Coded Computing for Federated Learning at the Edge [3.385874614913973]
フェデレートラーニング(FL)は、クライアントデータを集中サーバに移行することなく、クライアントノードでローカルに生成されたデータからグローバルモデルをトレーニングすることを可能にする。
最近の研究は、MECサーバに冗長な計算を割り当てることで、トラグラーを緩和し、線形回帰タスクのトレーニングを高速化することを提案する。
我々は、CFLを分散非線形回帰および多出力ラベルによる分類問題に拡張する難題に対処するCodedFedLを開発した。
論文 参考訳(メタデータ) (2020-07-07T08:20:47Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。