論文の概要: FedAdapt: Adaptive Offloading for IoT Devices in Federated Learning
- arxiv url: http://arxiv.org/abs/2107.04271v1
- Date: Fri, 9 Jul 2021 07:29:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 00:17:38.983607
- Title: FedAdapt: Adaptive Offloading for IoT Devices in Federated Learning
- Title(参考訳): fedadapt: フェデレーション学習におけるiotデバイスの適応オフロード
- Authors: Di Wu and Rehmat Ullah and Paul Harvey and Peter Kilpatrick and Ivor
Spence and Blesson Varghese
- Abstract要約: Internet-of-Thingsデバイス上でのフェデレートラーニング(FL)は、それらが生成する大量のデータと、データプライバシに関する懸念によって必要になる。
本稿では、上記の課題を軽減するための適応型オフロードFLフレームワークであるFedAdaptについて述べる。
- 参考スコア(独自算出の注目度): 2.5775113252104216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Applying Federated Learning (FL) on Internet-of-Things devices is
necessitated by the large volumes of data they produce and growing concerns of
data privacy. However, there are three challenges that need to be addressed to
make FL efficient: (i) execute on devices with limited computational
capabilities, (ii) account for stragglers due to computational heterogeneity of
devices, and (iii) adapt to the changing network bandwidths. This paper
presents FedAdapt, an adaptive offloading FL framework to mitigate the
aforementioned challenges. FedAdapt accelerates local training in
computationally constrained devices by leveraging layer offloading of deep
neural networks (DNNs) to servers. Further, FedAdapt adopts reinforcement
learning-based optimization and clustering to adaptively identify which layers
of the DNN should be offloaded for each individual device on to a server to
tackle the challenges of computational heterogeneity and changing network
bandwidth. Experimental studies are carried out on a lab-based testbed
comprising five IoT devices. By offloading a DNN from the device to the server
FedAdapt reduces the training time of a typical IoT device by over half
compared to classic FL. The training time of extreme stragglers and the overall
training time can be reduced by up to 57%. Furthermore, with changing network
bandwidth, FedAdapt is demonstrated to reduce the training time by up to 40%
when compared to classic FL, without sacrificing accuracy. FedAdapt can be
downloaded from https://github.com/qub-blesson/FedAdapt.
- Abstract(参考訳): Internet-of-Thingsデバイスにフェデレートラーニング(FL)を適用するには、生成する大量のデータと、データプライバシに関する懸念が不可欠である。
しかし、FLを効率的にするためには、3つの課題がある: (i) 限られた計算能力を持つデバイス上で実行し、 (ii) デバイスの計算的不均一性に起因するストラグラーを考慮し、 (iii) ネットワーク帯域幅の変化に適応する。
本稿では、上記の課題を軽減するための適応型オフロードFLフレームワークであるFedAdaptを提案する。
FedAdaptは、ディープニューラルネットワーク(DNN)をサーバにオフロードすることで、計算制約のあるデバイスのローカルトレーニングを加速する。
さらに、FedAdaptは強化学習に基づく最適化とクラスタリングを採用し、各デバイスにDNNのどの層をオフロードすべきかを適応的に識別し、計算の不均一性やネットワーク帯域幅の変化といった課題に取り組む。
5つのIoTデバイスからなる実験室ベースのテストベッドで実験を行った。
デバイスからサーバにDNNをオフロードすることで、FedAdaptは従来のFLに比べて、一般的なIoTデバイスのトレーニング時間を半減する。
極端なストラグラーのトレーニング時間と全体のトレーニング時間は最大57%削減できる。
さらに、ネットワーク帯域幅の変更により、FedAdaptは、従来のFLと比較してトレーニング時間を最大40%短縮する。
FedAdaptはhttps://github.com/qub-blesson/FedAdaptからダウンロードできる。
関連論文リスト
- Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Adaptive Target-Condition Neural Network: DNN-Aided Load Balancing for
Hybrid LiFi and WiFi Networks [19.483289519348315]
機械学習は、複雑性に優しいロードバランシングソリューションを提供する可能性がある。
学習支援のSOTA(State-of-the-art)は,ネットワーク環境が変化すると再学習を必要とする。
適応目標条件ニューラルネットワーク(A-TCNN)と呼ばれる新しいディープニューラルネットワーク(DNN)構造を提案する。
論文 参考訳(メタデータ) (2022-08-09T20:46:13Z) - FedAdapter: Efficient Federated Learning for Modern NLP [2.6706511009396023]
下流タスクのための微調整済みの事前訓練モデルは、しばしばプライベートデータを必要とする。
FedNLPは、大きなモデルサイズと結果としてネットワーク/計算コストが高いため、禁止的に遅い。
既存のFedNLPを2つの新しい設計で拡張するフレームワークであるFedAdapterを提案する。
論文 参考訳(メタデータ) (2022-05-20T13:10:43Z) - CoCoFL: Communication- and Computation-Aware Federated Learning via
Partial NN Freezing and Quantization [3.219812767529503]
我々は,すべてのデバイス上でNN構造を完全に維持する新しいFL手法であるCoCoFLを提案する。
CoCoFLはデバイス上の利用可能なリソースを効率的に利用し、制約されたデバイスがFLシステムに多大な貢献をすることができる。
論文 参考訳(メタデータ) (2022-03-10T16:45:05Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - On the Tradeoff between Energy, Precision, and Accuracy in Federated
Quantized Neural Networks [68.52621234990728]
無線ネットワーク上でのフェデレーション学習(FL)は、精度、エネルギー効率、精度のバランスをとる必要がある。
本稿では,ローカルトレーニングとアップリンク伝送の両方において,有限レベルの精度でデータを表現できる量子化FLフレームワークを提案する。
我々のフレームワークは標準的なFLモデルと比較してエネルギー消費量を最大53%削減できる。
論文 参考訳(メタデータ) (2021-11-15T17:00:03Z) - FedFly: Towards Migration in Edge-based Distributed Federated Learning [2.5775113252104216]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のための分散機械学習技術である。
FedFlyは、FLトレーニング中にデバイスがエッジサーバ間を移動するときに、ディープニューラルネットワーク(DNN)を移行する最初の作業である。
論文 参考訳(メタデータ) (2021-11-02T11:44:41Z) - To Talk or to Work: Energy Efficient Federated Learning over Mobile
Devices via the Weight Quantization and 5G Transmission Co-Design [49.95746344960136]
Federated Learning (FL) は,モバイルデバイス間での大規模学習タスクのための新たなパラダイムである。
モバイルデバイス上でFLをサポートする効果的な無線ネットワークアーキテクチャを確立する方法は不明です。
我々は、異種5Gモバイル機器上でのエネルギー効率FLのための無線伝送および重み量子化協調設計を開発する。
論文 参考訳(メタデータ) (2020-12-21T01:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。