論文の概要: Exploring Deep Reinforcement Learning-Assisted Federated Learning for
Online Resource Allocation in EdgeIoT
- arxiv url: http://arxiv.org/abs/2202.07391v1
- Date: Tue, 15 Feb 2022 13:36:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 20:52:19.730842
- Title: Exploring Deep Reinforcement Learning-Assisted Federated Learning for
Online Resource Allocation in EdgeIoT
- Title(参考訳): EdgeIoTにおけるオンラインリソース割り当てのための深層強化学習支援フェデレーションラーニングの探索
- Authors: Jingjing Zheng, Kai Li, Naram Mhaisen, Wei Ni, Eduardo Tovar, Mohsen
Guizani
- Abstract要約: フェデレートラーニング(FL)は、モバイルエッジコンピューティングベースのInternet of Thing(EdgeIoT)における盗聴攻撃からデータトレーニングプライバシを保護するために、ますます検討されている。
本研究では,連続領域における最適精度とエネルギー収支を達成するために,FLDLT3フレームワークを提案する。
その結果、FL-DLT3は100回未満の高速収束を実現し、FLの精度-エネルギー消費比は既存の最先端ベンチマークと比較して51.8%向上した。
- 参考スコア(独自算出の注目度): 53.68792408315411
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has been increasingly considered to preserve data
training privacy from eavesdropping attacks in mobile edge computing-based
Internet of Thing (EdgeIoT). On the one hand, the learning accuracy of FL can
be improved by selecting the IoT devices with large datasets for training,
which gives rise to a higher energy consumption. On the other hand, the energy
consumption can be reduced by selecting the IoT devices with small datasets for
FL, resulting in a falling learning accuracy. In this paper, we formulate a new
resource allocation problem for EdgeIoT to balance the learning accuracy of FL
and the energy consumption of the IoT device. We propose a new federated
learning-enabled twin-delayed deep deterministic policy gradient (FLDLT3)
framework to achieve the optimal accuracy and energy balance in a continuous
domain. Furthermore, long short term memory (LSTM) is leveraged in FL-DLT3 to
predict the time-varying network state while FL-DLT3 is trained to select the
IoT devices and allocate the transmit power. Numerical results demonstrate that
the proposed FL-DLT3 achieves fast convergence (less than 100 iterations) while
the FL accuracy-to-energy consumption ratio is improved by 51.8% compared to
existing state-of-the-art benchmark.
- Abstract(参考訳): フェデレートラーニング(FL)は、モバイルエッジコンピューティングベースのInternet of Thing(EdgeIoT)における盗聴攻撃からデータトレーニングプライバシを保護するものとして、ますます検討されている。
一方、FLの学習精度は、トレーニング用の大きなデータセットでIoTデバイスを選択することで改善され、より高いエネルギー消費がもたらされる。
一方、FL用の小さなデータセットでIoTデバイスを選択して、学習精度を低下させることで、エネルギー消費量を削減できる。
本稿では、FLの学習精度とIoTデバイスのエネルギー消費のバランスをとるために、EdgeIoTの新しいリソース割り当て問題を定式化する。
本稿では,連続領域における最適精度とエネルギーバランスを達成するために,新しいフェデレート学習可能な二重遅延型ディープ決定論的政策勾配(fldlt3)フレームワークを提案する。
さらに、fl-dlt3ではlong short term memory(lstm)を利用して時間変動ネットワーク状態を予測し、fl-dlt3ではiotデバイスの選択と送信電力の割り当てを訓練する。
その結果、FL-DLT3は100回未満の高速収束を実現し、FLの精度-エネルギー消費比は既存の最先端ベンチマークと比較して51.8%向上した。
関連論文リスト
- FLrce: Resource-Efficient Federated Learning with Early-Stopping Strategy [7.963276533979389]
フェデレートラーニング(FL)がIoT(Internet of Things)で大人気
FLrceは、関係ベースのクライアント選択と早期停止戦略を備えた効率的なFLフレームワークである。
その結果,既存のFLフレームワークと比較してFLrceは計算効率を少なくとも30%,通信効率を43%向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-15T10:13:44Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - HCFL: A High Compression Approach for Communication-Efficient Federated
Learning in Very Large Scale IoT Networks [27.963991995365532]
フェデレートラーニング(FL)は、IoT(Internet-of-Things)デバイスが、処理のために生データを集中ノードに送信することなく、コラボレーティブモデルを学ぶことを可能にする、新たな人工知能の概念である。
多数のアドバンテージにもかかわらず、IoTデバイスの低コンピューティングリソースとモデルパラメータを交換するための高い通信コストは、巨大なIoTネットワークにおけるFLの応用を極めて限定している。
我々は,大規模IoTネットワークのための高速圧縮フェデレーション学習(HCFL)と呼ばれるFLのための新しい圧縮スキームを開発した。
論文 参考訳(メタデータ) (2022-04-14T05:29:40Z) - On the Tradeoff between Energy, Precision, and Accuracy in Federated
Quantized Neural Networks [68.52621234990728]
無線ネットワーク上でのフェデレーション学習(FL)は、精度、エネルギー効率、精度のバランスをとる必要がある。
本稿では,ローカルトレーニングとアップリンク伝送の両方において,有限レベルの精度でデータを表現できる量子化FLフレームワークを提案する。
我々のフレームワークは標準的なFLモデルと比較してエネルギー消費量を最大53%削減できる。
論文 参考訳(メタデータ) (2021-11-15T17:00:03Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z) - FLeet: Online Federated Learning via Staleness Awareness and Performance
Prediction [9.408271687085476]
本稿では,最初のオンラインフェデレーション学習システムであるFLeetについて述べる。
オンラインFLは、標準FLのプライバシーとオンライン学習の精度を組み合わせる。
I-Profは新しい軽量プロファイラで、モバイルデバイスにおける学習タスクの影響を予測し、制御する。
AdaSGDは新しい適応学習アルゴリズムで、更新の遅れに耐性がある。
論文 参考訳(メタデータ) (2020-06-12T15:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。