論文の概要: To Talk or to Work: Delay Efficient Federated Learning over Mobile Edge
Devices
- arxiv url: http://arxiv.org/abs/2111.00637v1
- Date: Mon, 1 Nov 2021 00:35:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 17:30:07.235641
- Title: To Talk or to Work: Delay Efficient Federated Learning over Mobile Edge
Devices
- Title(参考訳): To Talk or To Work: モバイルエッジデバイス上での効果的なフェデレーション学習の遅延
- Authors: Pavana Prakash, Jiahao Ding, Maoqiang Wu, Minglei Shu, Rong Yu, and
Miao Pan
- Abstract要約: モバイルデバイスは、中央サーバの調整の下で、自身のデータに基づいてモデルをトレーニングするために協力する。
データの中心的な可用性がなければ、計算ノードは収束を達成するためにしばしばモデル更新を伝える必要がある。
本稿では,モデルが収束するために必要な全時間(計算待ち時間と通信待ち時間の両方)と通信ラウンドを削減できる遅延効率FL機構を提案する。
- 参考スコア(独自算出の注目度): 13.318419040823088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL), an emerging distributed machine learning paradigm,
in conflux with edge computing is a promising area with novel applications over
mobile edge devices. In FL, since mobile devices collaborate to train a model
based on their own data under the coordination of a central server by sharing
just the model updates, training data is maintained private. However, without
the central availability of data, computing nodes need to communicate the model
updates often to attain convergence. Hence, the local computation time to
create local model updates along with the time taken for transmitting them to
and from the server result in a delay in the overall time. Furthermore,
unreliable network connections may obstruct an efficient communication of these
updates. To address these, in this paper, we propose a delay-efficient FL
mechanism that reduces the overall time (consisting of both the computation and
communication latencies) and communication rounds required for the model to
converge. Exploring the impact of various parameters contributing to delay, we
seek to balance the trade-off between wireless communication (to talk) and
local computation (to work). We formulate a relation with overall time as an
optimization problem and demonstrate the efficacy of our approach through
extensive simulations.
- Abstract(参考訳): 新たな分散機械学習パラダイムであるフェデレーション・ラーニング(fl)は、エッジコンピューティングと融合し、モバイルエッジデバイス上で新たなアプリケーションを持つ有望な分野である。
FLでは、モバイルデバイスは、モデル更新だけを共有することで、中央サーバの調整の下で、自身のデータに基づいてモデルをトレーニングするため、トレーニングデータをプライベートに保持する。
しかし、データの中心的な可用性がなければ、計算ノードは収束を達成するためにしばしばモデル更新を伝える必要がある。
したがって、ローカルモデル更新を作成するためのローカルな計算時間と、それらをサーバに送受信するのに要する時間とが、全体の時間を遅らせることになる。
さらに、信頼性の低いネットワーク接続は、これらの更新の効率的な通信を妨げる可能性がある。
そこで本稿では,モデルが収束するために必要な通信ラウンドと計算時間(計算時間と通信時間の両方)を削減する遅延効率のfl機構を提案する。
遅延に寄与する様々なパラメータの影響を探求し,無線通信(話)と局所計算(作業)のトレードオフのバランスを図る。
総合時間との関係を最適化問題として定式化し,広範なシミュレーションによるアプローチの有効性を示す。
関連論文リスト
- Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Scheduling and Aggregation Design for Asynchronous Federated Learning
over Wireless Networks [56.91063444859008]
Federated Learning(FL)は、デバイス上でのトレーニングとサーバベースのアグリゲーションを組み合わせた、協調的な機械学習フレームワークである。
FLシステムにおけるストラグラー問題に対処するために,周期的アグリゲーションを用いた非同期FL設計を提案する。
年齢認識の集約重み付け設計は,非同期FL設定における学習性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-14T17:33:01Z) - Collaborative Learning over Wireless Networks: An Introductory Overview [84.09366153693361]
主に、ワイヤレスデバイス間の協調トレーニングに焦点を合わせます。
過去数十年間、多くの分散最適化アルゴリズムが開発されてきた。
データ局所性 – すなわち、各参加デバイスで利用可能なデータがローカルのままである間、共同モデルを協調的にトレーニングすることができる。
論文 参考訳(メタデータ) (2021-12-07T20:15:39Z) - Spatio-Temporal Federated Learning for Massive Wireless Edge Networks [23.389249751372393]
エッジサーバと多数のモバイルデバイス(クライアント)は、モバイルデバイスが収集した膨大なデータをエッジサーバに転送することなく、グローバルモデルを共同で学習する。
提案手法は,STFLに参加する予定の様々なモバイルデバイスからの学習更新の空間的および時間的相関を利用している。
収束性能を用いてSTFLの学習能力を研究するために,STFLの分析フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T16:46:45Z) - User Scheduling for Federated Learning Through Over-the-Air Computation [22.853678584121862]
FL(Federated Learning)と呼ばれる新しい機械学習技術は、エッジデバイスにおけるデータの保存と、学習プロセスにおけるMLモデルパラメータの交換のみを目的としている。
FLは通信ニーズを減らすだけでなく、地域のプライバシーを守るのにも役立ちます。
AirCompは、アナログ変調を用いて複数のデバイスが同時にデータを送信できるようにすることで、データを送信しながら計算することができる。
論文 参考訳(メタデータ) (2021-08-05T23:58:15Z) - Accelerating Federated Edge Learning via Optimized Probabilistic Device
Scheduling [57.271494741212166]
本稿では,通信時間最小化問題を定式化し,解決する。
最適化されたポリシーは、トレーニングプロセスが進むにつれて、残りの通信ラウンドの抑制から、ラウンドごとのレイテンシの低減へと、徐々に優先順位を転換している。
提案手法の有効性は,自律運転における協調的3次元目標検出のユースケースを通じて実証される。
論文 参考訳(メタデータ) (2021-07-24T11:39:17Z) - Cross-Node Federated Graph Neural Network for Spatio-Temporal Data
Modeling [13.426382746638007]
本稿では,ノード間フェデレーション学習の制約下でのグラフニューラルネットワーク(GNN)に基づくアーキテクチャを提案する。
CNFGNNは、デバイス上の時間計算とサーバ上の空間力学を分離して動作する。
実験の結果, CNFGNNは, 帰納的および帰納的両方の学習環境において, 最高の予測性能が得られることがわかった。
論文 参考訳(メタデータ) (2021-06-09T17:12:43Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - Coded Federated Learning [5.375775284252717]
フェデレートラーニング(Federated Learning)とは、クライアントデバイスに分散した分散データからグローバルモデルをトレーニングする手法である。
この結果から,CFLでは,符号化されていない手法に比べて,大域的モデルを約4倍の速度で収束させることができることがわかった。
論文 参考訳(メタデータ) (2020-02-21T23:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。