論文の概要: Federated Learning based Energy Demand Prediction with Clustered
Aggregation
- arxiv url: http://arxiv.org/abs/2210.15850v1
- Date: Fri, 28 Oct 2022 02:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 17:27:51.335235
- Title: Federated Learning based Energy Demand Prediction with Clustered
Aggregation
- Title(参考訳): クラスタ集約によるフェデレーション学習によるエネルギー需要予測
- Authors: Ye Lin Tun, Kyi Thar, Chu Myaet Thwal, Choong Seon Hong
- Abstract要約: クライアントのスマートホームによって収集されたエネルギー利用情報は、将来のエネルギー需要を予測するために、ディープニューラルネットワークのトレーニングに使用することができる。
本稿では,分散データを活用するために,クラスタ化されたクライアント上でのフェデレーション学習を訓練した繰り返しニューラルネットワークに基づくエネルギー需要予測器を提案する。
- 参考スコア(独自算出の注目度): 14.631304404306778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To reduce negative environmental impacts, power stations and energy grids
need to optimize the resources required for power production. Thus, predicting
the energy consumption of clients is becoming an important part of every energy
management system. Energy usage information collected by the clients' smart
homes can be used to train a deep neural network to predict the future energy
demand. Collecting data from a large number of distributed clients for
centralized model training is expensive in terms of communication resources. To
take advantage of distributed data in edge systems, centralized training can be
replaced by federated learning where each client only needs to upload model
updates produced by training on its local data. These model updates are
aggregated into a single global model by the server. But since different
clients can have different attributes, model updates can have diverse weights
and as a result, it can take a long time for the aggregated global model to
converge. To speed up the convergence process, we can apply clustering to group
clients based on their properties and aggregate model updates from the same
cluster together to produce a cluster specific global model. In this paper, we
propose a recurrent neural network based energy demand predictor, trained with
federated learning on clustered clients to take advantage of distributed data
and speed up the convergence process.
- Abstract(参考訳): 負の環境影響を減らすために、発電所と電力網は発電に必要な資源を最適化する必要がある。
このように、クライアントのエネルギー消費を予測することは、すべてのエネルギー管理システムの重要な部分となっている。
クライアントのスマートホームが収集したエネルギー使用情報は、将来のエネルギー需要を予測するディープニューラルネットワークのトレーニングに使用できる。
集中型モデルトレーニングのために、多数の分散クライアントからデータを収集するのは、通信リソースの面でコストがかかる。
エッジシステムの分散データを活用するために、各クライアントがローカルデータにトレーニングによって生成されたモデル更新をアップロードするだけで、集中的なトレーニングをフェデレーション学習に置き換えることができる。
これらのモデル更新は、サーバによって単一のグローバルモデルに集約される。
しかし、異なるクライアントは異なる属性を持つことができるので、モデル更新は様々な重みを持ち、その結果、集約されたグローバルモデルが収束するのに長い時間がかかる可能性がある。
収束過程を高速化するために、クラスタ化をそれらの特性に基づいてグループクライアントに適用し、同一クラスタからのモデル更新を集約してクラスタ固有のグローバルモデルを生成する。
本稿では,クラスタ化されたクライアント上でのフェデレーション学習によってトレーニングされたニューラルネットワークに基づくエネルギー需要予測器を提案し,分散データを利用して収束過程を高速化する。
関連論文リスト
- Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - FedSPD: A Soft-clustering Approach for Personalized Decentralized Federated Learning [18.38030098837294]
フェデレーション学習は、分散クライアントがローカルデータを使用して機械学習モデルを協調的にトレーニングするためのフレームワークである。
分散環境のための効率的パーソナライズされたフェデレーション学習アルゴリズムであるFedSPDを提案する。
低接続性ネットワークにおいてもFedSPDが正確なモデルを学ぶことを示す。
論文 参考訳(メタデータ) (2024-10-24T15:48:34Z) - Towards Client Driven Federated Learning [7.528642177161784]
私たちは、クライアントを駆動する新しいFLフレームワークであるクライアント駆動フェデレートラーニング(CDFL:Client-Driven Federated Learning)を紹介します。
CDFLでは、各クライアントは、ローカルにトレーニングされたモデルをサーバにアップロードし、ローカルタスクに合わせてカスタマイズされたモデルを受け取ることで、独立して非同期にモデルを更新する。
論文 参考訳(メタデータ) (2024-05-24T10:17:49Z) - Clustering-based Multitasking Deep Neural Network for Solar Photovoltaics Power Generation Prediction [16.263501526929975]
本稿では,PV発電予測のためのマルチタスクディープニューラルネットワーク(CM-DNN)フレームワークを提案する。
各タイプに対して、ディープニューラルネットワーク(DNN)が採用され、精度が向上するまで訓練される。
特定の顧客タイプに対しては、トレーニング精度を高めるためにモデル間知識伝達を行う。
提案するCM-DNNは、現実のPV発電データセット上でテストされる。
論文 参考訳(メタデータ) (2024-05-09T00:08:21Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Heterogeneous Federated Learning via Personalized Generative Networks [7.629157720712401]
フェデレートラーニング(FL)は、データを共有することなく、複数のクライアントが共通のグローバル機械学習モデルを構築することを可能にする。
本稿では,サーバがクライアント固有のジェネレータを訓練するクライアント間の知識伝達手法を提案する。
論文 参考訳(メタデータ) (2023-08-25T09:37:02Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - DYNAFED: Tackling Client Data Heterogeneity with Global Dynamics [60.60173139258481]
非イド分散データに対する局所訓練は、偏向局所最適化をもたらす。
自然な解決策は、サーバがデータ分散全体のグローバルなビューを持つように、すべてのクライアントデータをサーバに収集することです。
本稿では,データプライバシを損なうことなく,サーバ上でのグローバルな知識の収集と活用を図る。
論文 参考訳(メタデータ) (2022-11-20T06:13:06Z) - Data Selection for Efficient Model Update in Federated Learning [0.07614628596146598]
本稿では,グローバルモデルのトレーニングに必要なローカルデータの量を削減することを提案する。
本手法では, 局所データの特徴により敏感な部分と, 一般特徴抽出のための下位部分と, 上位部分とにモデルを分割する。
実験の結果,クライアントデータの特徴をグローバルモデルに転送できる地域データは1%未満であることがわかった。
論文 参考訳(メタデータ) (2021-11-05T14:07:06Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - Information-Theoretic Bounds on the Generalization Error and Privacy
Leakage in Federated Learning [96.38757904624208]
モバイルネットワーク上の機械学習アルゴリズムは、3つのカテゴリに分類される。
この研究の主な目的は、前述のすべての学習パラダイムに対する情報理論のフレームワークを提供することである。
論文 参考訳(メタデータ) (2020-05-05T21:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。