論文の概要: Service Delay Minimization for Federated Learning over Mobile Devices
- arxiv url: http://arxiv.org/abs/2205.09868v1
- Date: Thu, 19 May 2022 21:25:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 15:36:52.195288
- Title: Service Delay Minimization for Federated Learning over Mobile Devices
- Title(参考訳): モバイルデバイス上でのフェデレーション学習のためのサービス遅延最小化
- Authors: Rui Chen, Dian Shi, Xiaoqi Qin, Dongjie Liu, Miao Pan, and Shuguang
Cui
- Abstract要約: モバイルデバイス上でのフェデレーション学習は、多くの興味深いアプリケーション/サービスを生み出している。
本稿では,モバイル端末上でのサービス遅延効率FL(SDEFL)方式を提案する。
- 参考スコア(独自算出の注目度): 36.027677482303076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) over mobile devices has fostered numerous intriguing
applications/services, many of which are delay-sensitive. In this paper, we
propose a service delay efficient FL (SDEFL) scheme over mobile devices. Unlike
traditional communication efficient FL, which regards wireless communications
as the bottleneck, we find that under many situations, the local computing
delay is comparable to the communication delay during the FL training process,
given the development of high-speed wireless transmission techniques. Thus, the
service delay in FL should be computing delay + communication delay over
training rounds. To minimize the service delay of FL, simply reducing local
computing/communication delay independently is not enough. The delay trade-off
between local computing and wireless communications must be considered.
Besides, we empirically study the impacts of local computing control and
compression strategies (i.e., the number of local updates, weight quantization,
and gradient quantization) on computing, communication and service delays.
Based on those trade-off observation and empirical studies, we develop an
optimization scheme to minimize the service delay of FL over heterogeneous
devices. We establish testbeds and conduct extensive emulations/experiments to
verify our theoretical analysis. The results show that SDEFL reduces notable
service delay with a small accuracy drop compared to peer designs.
- Abstract(参考訳): モバイルデバイス上の連合学習(federated learning, fl)は、多くの興味深いアプリケーション/サービスを生み出し、その多くが遅延に敏感である。
本稿では,モバイル端末上でのサービス遅延効率FL(SDEFL)方式を提案する。
無線通信をボトルネックとみなす従来の通信効率のよいFLとは違い,多くの状況において,高速無線伝送技術の発展を考えると,ローカルコンピューティングの遅延はFL訓練過程における通信遅延に匹敵する。
したがって、flのサービス遅延は、トレーニングラウンドでの計算遅延+通信遅延であるべきです。
FLのサービス遅延を最小化するためには、ローカルコンピューティング/通信遅延を独立して低減するだけでは不十分である。
ローカルコンピューティングと無線通信の遅延トレードオフを考慮する必要がある。
さらに,ローカルコンピューティング制御と圧縮戦略(ローカル更新数,重み量子化,勾配量子化)がコンピューティング,通信,サービス遅延に与える影響を実証的に研究した。
これらのトレードオフ観測と実証研究に基づいて,異種デバイス上でのflのサービス遅延を最小限に抑える最適化手法を開発した。
実験ベッドを設置し,エミュレーション・実験を行い,理論解析を行った。
その結果,SDEFLはピア設計と比較して,少ない精度でサービス遅延を低減できることがわかった。
関連論文リスト
- Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - FLSTRA: Federated Learning in Stratosphere [22.313423693397556]
高度の高いプラットフォームステーションは、多くの地球上のクライアントが、トレーニングデータなしでグローバルなモデルを協調的に学習できるようにする。
我々は、FL遅延を最小限に抑えるために、アップリンクとダウンリンクのための共同クライアント選択とリソース割り当てアルゴリズムを開発した。
次に,その収束の上限を導出しながら,FLの精度を目標とする通信資源認識アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-01T00:52:55Z) - Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z) - Resource Allocation for Compression-aided Federated Learning with High
Distortion Rate [3.7530276852356645]
我々は、歪み率、参加IoTデバイス数、収束率の間の最適化支援FL問題を定式化する。
参加するIoTデバイスを積極的に制御することにより、通信効率を維持しながら圧縮支援FLのトレーニングばらつきを回避することができる。
論文 参考訳(メタデータ) (2022-06-02T05:00:37Z) - Towards Communication-Learning Trade-off for Federated Learning at the
Network Edge [5.267288702335319]
限られたリソースを持つローカルユーザに対して,ネットワークプルーニングを適用した無線学習システム(FL)を提案する。
FLレイテンシーには有益だが、情報損失も悪化する。
論文 参考訳(メタデータ) (2022-05-27T23:11:52Z) - Over-the-Air Federated Learning with Retransmissions (Extended Version) [21.37147806100865]
資源制約のある無線ネットワーク上でのフェデレート学習(FL)の収束に対する推定誤差の影響について検討する。
資源制約のある無線ネットワーク上でFL収束を改善する手法として再送信を提案する。
論文 参考訳(メタデータ) (2021-11-19T15:17:15Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Unit-Modulus Wireless Federated Learning Via Penalty Alternating
Minimization [64.76619508293966]
Wireless Federated Learning(FL)は、分散データセットから無線通信を介してグローバルパラメトリックモデルをトレーニングする、新興機械学習パラダイムである。
本稿では、ローカルモデルパラメータをアップロードし、無線通信を介してグローバルモデルパラメータを算出する無線FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T08:19:54Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。