論文の概要: FedTrees: A Novel Computation-Communication Efficient Federated Learning
Framework Investigated in Smart Grids
- arxiv url: http://arxiv.org/abs/2210.00060v1
- Date: Fri, 30 Sep 2022 19:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:10:30.720707
- Title: FedTrees: A Novel Computation-Communication Efficient Federated Learning
Framework Investigated in Smart Grids
- Title(参考訳): fedtrees:スマートグリッドを用いた新しい計算通信効率のよいフェデレーション学習フレームワーク
- Authors: Mohammad Al-Quraan, Ahsan Khan, Anthony Centeno, Ahmed Zoha, Muhammad
Ali Imran, Lina Mohjazi
- Abstract要約: 次世代のスマートメーターは、エネルギー消費データの測定、記録、および報告に使用することができる。
FedTreesは、アンサンブル学習の際立った特徴の恩恵を受ける、新しくて軽量なFLフレームワークである。
- 参考スコア(独自算出の注目度): 8.437758224218648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smart energy performance monitoring and optimisation at the supplier and
consumer levels is essential to realising smart cities. In order to implement a
more sustainable energy management plan, it is crucial to conduct a better
energy forecast. The next-generation smart meters can also be used to measure,
record, and report energy consumption data, which can be used to train machine
learning (ML) models for predicting energy needs. However, sharing fine-grained
energy data and performing centralised learning may compromise users' privacy
and leave them vulnerable to several attacks. This study addresses this issue
by utilising federated learning (FL), an emerging technique that performs ML
model training at the user level, where data resides. We introduce FedTrees, a
new, lightweight FL framework that benefits from the outstanding features of
ensemble learning. Furthermore, we developed a delta-based early stopping
algorithm to monitor FL training and stop it when it does not need to continue.
The simulation results demonstrate that FedTrees outperforms the most popular
federated averaging (FedAvg) framework and the baseline Persistence model for
providing accurate energy forecasting patterns while taking only 2% of the
computation time and 13% of the communication rounds compared to FedAvg, saving
considerable amounts of computation and communication resources.
- Abstract(参考訳): スマートエネルギーのパフォーマンス監視とサプライヤーや消費者レベルの最適化は、スマートシティを実現する上で不可欠である。
より持続可能なエネルギー管理計画を実現するためには、より良いエネルギー予測を行うことが不可欠である。
次世代のスマートメーターは、エネルギー消費データを計測、記録、報告するためにも使用することができ、エネルギーニーズを予測する機械学習モデル(ML)のトレーニングに使用することができる。
しかし、きめ細かいエネルギーデータの共有と集中学習はユーザーのプライバシーを侵害し、いくつかの攻撃に弱い。
本研究では,データが存在するユーザレベルでMLモデルトレーニングを行う新たな技術であるフェデレートラーニング(FL)を活用することで,この問題に対処する。
我々は、アンサンブル学習の際立った特徴の恩恵を受ける新しい軽量なFLフレームワークであるFedTreesを紹介します。
さらに,デルタベースの早期停止アルゴリズムを開発し,flトレーニングをモニタし,継続する必要のない場合には停止する。
シミュレーションの結果,FedTreesはFedAvgと比較して計算時間の2%と通信ラウンドの13%しか取らず,正確なエネルギー予測パターンを提供する上で,最も一般的なフェデレーション平均化(FedAvg)フレームワークとベースラインパーシステンスモデルよりも優れており,膨大な計算と通信資源を節約していることがわかった。
関連論文リスト
- Exploring Lightweight Federated Learning for Distributed Load Forecasting [0.864902991835914]
Federated Learning(FL)は、ディープラーニングを機密データストリームやアプリケーションに対して、プライバシ保護の方法で適用するための分散学習スキームである。
我々は、軽量で完全に接続されたディープニューラルネットワークにより、既存のスキームに匹敵する予測精度を達成することができることを示した。
論文 参考訳(メタデータ) (2024-04-04T09:35:48Z) - FLrce: Resource-Efficient Federated Learning with Early-Stopping Strategy [7.963276533979389]
フェデレートラーニング(FL)がIoT(Internet of Things)で大人気
FLrceは、関係ベースのクライアント選択と早期停止戦略を備えた効率的なFLフレームワークである。
その結果,既存のFLフレームワークと比較してFLrceは計算効率を少なくとも30%,通信効率を43%向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-15T10:13:44Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - FedWOA: A Federated Learning Model that uses the Whale Optimization
Algorithm for Renewable Energy Prediction [0.0]
本稿では,フェデレート学習モデルについて紹介する。フェデレーション学習モデルは,プロシューマーエネルギーデータに基づいて訓練された局所ニューラルネットワークモデルの重みから,グローバル予測モデルを集約する。
その結果,FedAVGと比較して,MSEでは25%,MAEでは16%の精度でエネルギー予測モデルの精度を効果的に向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-19T05:44:18Z) - Exploring Deep Reinforcement Learning-Assisted Federated Learning for
Online Resource Allocation in EdgeIoT [53.68792408315411]
フェデレートラーニング(FL)は、モバイルエッジコンピューティングベースのInternet of Thing(EdgeIoT)における盗聴攻撃からデータトレーニングプライバシを保護するために、ますます検討されている。
本研究では,連続領域における最適精度とエネルギー収支を達成するために,FLDLT3フレームワークを提案する。
その結果、FL-DLT3は100回未満の高速収束を実現し、FLの精度-エネルギー消費比は既存の最先端ベンチマークと比較して51.8%向上した。
論文 参考訳(メタデータ) (2022-02-15T13:36:15Z) - Federated Learning for Short-term Residential Energy Demand Forecasting [4.769747792846004]
エネルギー需要予測は、需要と供給のバランスを保ち、電力網の安定的な負荷を維持するためにエネルギー産業内で実施される重要な課題である。
供給が信頼性の低い再生可能エネルギー生成へと移行するにつれ、スマートメーターはこれらの予測タスクを支援する上で不可欠な要素であることが証明される。
しかし、プライバシーを意識した消費者は、詳細な消費データへの侵入を恐れている。
論文 参考訳(メタデータ) (2021-05-27T17:33:09Z) - A Framework for Energy and Carbon Footprint Analysis of Distributed and
Federated Edge Learning [48.63610479916003]
本稿では,分散学習政策の環境フットプリントに影響を与える要因を概説し,分析する。
バニラとコンセンサスによって駆動される分散FLポリシーの両方をモデル化する。
その結果、flは低ビット/ジュール効率を特徴とするワイヤレスシステムにおいて、顕著なエンドツーエンドの省エネ(30%-40%)が可能となった。
論文 参考訳(メタデータ) (2021-03-18T16:04:42Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z) - Resource Management for Blockchain-enabled Federated Learning: A Deep
Reinforcement Learning Approach [54.29213445674221]
Federated Learning (BFL)は、機械学習モデル所有者(MLMO)が必要とするニューラルネットワークモデルを、モバイルデバイスが協調的にトレーニングすることを可能にする。
BFLの問題は、モバイルデバイスがシステムの寿命とトレーニング効率を低下させるエネルギーとCPUの制約を持っていることである。
我々は,Deep Reinforcement Learning (DRL) を用いて最適決定を導出することを提案する。
論文 参考訳(メタデータ) (2020-04-08T16:29:19Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。