論文の概要: FedNILM: Applying Federated Learning to NILM Applications at the Edge
- arxiv url: http://arxiv.org/abs/2106.07751v1
- Date: Mon, 7 Jun 2021 04:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 18:31:39.941481
- Title: FedNILM: Applying Federated Learning to NILM Applications at the Edge
- Title(参考訳): FedNILM: エッジのNILMアプリケーションにフェデレーション学習を適用する
- Authors: Yu Zhang, Guoming Tang, Qianyi Huang, Yi Wang, Xudong Wang, Jiadong
Lou
- Abstract要約: 我々は、エッジクライアントでのNILMアプリケーションのための実用的なFLパラダイムであるFedNILMを提示する。
特にFedNILMは、プライバシ保護とパーソナライズされたNILMサービスを大規模エッジクライアントに提供するように設計されている。
実世界のエネルギーデータに関する実験により、FedNILMは最先端の精度でパーソナライズされたエネルギー分散を実現することができることを示した。
- 参考スコア(独自算出の注目度): 17.322648858451995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-intrusive load monitoring (NILM) helps disaggregate the household's main
electricity consumption to energy usages of individual appliances, thus greatly
cutting down the cost in fine-grained household load monitoring. To address the
arisen privacy concern in NILM applications, federated learning (FL) could be
leveraged for NILM model training and sharing. When applying the FL paradigm in
real-world NILM applications, however, we are faced with the challenges of edge
resource restriction, edge model personalization and edge training data
scarcity.
In this paper we present FedNILM, a practical FL paradigm for NILM
applications at the edge client. Specifically, FedNILM is designed to deliver
privacy-preserving and personalized NILM services to large-scale edge clients,
by leveraging i) secure data aggregation through federated learning, ii)
efficient cloud model compression via filter pruning and multi-task learning,
and iii) personalized edge model building with unsupervised transfer learning.
Our experiments on real-world energy data show that, FedNILM is able to achieve
personalized energy disaggregation with the state-of-the-art accuracy, while
ensuring privacy preserving at the edge client.
- Abstract(参考訳): 非侵入負荷モニタリング(non-intrusive load monitoring, nilm)は、家庭の主な電力消費を個々の家電のエネルギー消費に分解するのに役立つ。
NILMアプリケーションで発生したプライバシー問題に対処するために、フェデレートラーニング(FL)はNILMモデルのトレーニングと共有に活用できる。
しかし,実世界のnilmアプリケーションにflパラダイムを適用する場合,エッジリソース制限やエッジモデルパーソナライゼーション,エッジトレーニングデータの不足といった課題に直面している。
本稿では、エッジクライアントにおけるNILMアプリケーションのための実用的なFLパラダイムであるFedNILMについて述べる。
具体的には、feednilmは、プライバシ保護とパーソナライズによるnilmサービスを大規模エッジクライアントに提供するように設計されている。i) フェデレーション学習によるセキュアなデータ集約、ii) フィルタプラニングとマルチタスク学習による効率的なクラウドモデル圧縮、iii) 教師なし転送学習によるパーソナライズされたエッジモデル構築。
実世界のエネルギーデータに関する実験により,FedNILMは最先端の精度で個人化されたエネルギー分散を実現することができ,エッジクライアントでのプライバシー保護も確保できることがわかった。
関連論文リスト
- Benchmarking Active Learning for NILM [2.896640219222859]
非侵入負荷モニタリング(NILM)は、家電固有の用途に家庭の電力消費を分散させることに焦点を当てている。
多くの高度なNILM法は、通常大量のラベル付きアプライアンスデータを必要とするニューラルネットワークに基づいている。
限られた住宅に家電モニターを選択的に設置するための能動的学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-24T12:22:59Z) - TinyML NLP Approach for Semantic Wireless Sentiment Classification [49.801175302937246]
本稿では,エネルギー効率のよいプライバシ保護型小型機械学習(MLTiny)方式としてスプリットラーニング(SL)を導入する。
その結果,SLは高い精度を維持しながら処理能力とCO2排出量を低減し,FLは効率とプライバシのバランスのとれた妥協を提供することがわかった。
論文 参考訳(メタデータ) (2024-11-09T21:26:59Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Towards Building the Federated GPT: Federated Instruction Tuning [66.7900343035733]
本稿では,大規模言語モデル(LLM)の命令チューニングのための学習フレームワークとして,FedIT(Federated Instruction Tuning)を紹介する。
我々は,FedITを用いてクライアントの終端における多種多様な命令セットを活用することにより,ローカル命令のみを限定した集中学習に比べ,LLMの性能を向上させることを実証した。
論文 参考訳(メタデータ) (2023-05-09T17:42:34Z) - DP$^2$-NILM: A Distributed and Privacy-preserving Framework for
Non-intrusive Load Monitoring [7.934421564157628]
非侵入負荷モニタリング(NILM)は、ユーザの電力消費行動を分析するのに役立つ。
最近の研究で、フェデレート深層学習(FL)に基づく多くの新しいNILMフレームワークが提案されている。
論文 参考訳(メタデータ) (2022-06-30T18:18:25Z) - FederatedNILM: A Distributed and Privacy-preserving Framework for
Non-intrusive Load Monitoring based on Federated Deep Learning [8.230120882304723]
本稿では,NILM(FederatedNILM)のための分散・プライバシ保護型深層学習フレームワークを開発する。
フェデレートNILMは、連邦学習と最先端のディープラーニングアーキテクチャを組み合わせることで、家電の典型的な状態を分類するためのNILMを実行する。
論文 参考訳(メタデータ) (2021-08-08T08:56:40Z) - Adversarial Energy Disaggregation for Non-intrusive Load Monitoring [78.47901044638525]
非侵入負荷モニタリング(Non-Inrusive Load Monitoring, NILM)としても知られるエネルギー分散は、家庭全体の電力消費を家電固有の個人消費に分けるという問題に挑戦する。
近年の進歩は、ディープニューラルネットワーク(DNN)がNILMに有利な性能を得られることを示している。
我々は、エネルギー分散タスクに新しくなったNILMに、敵対的学習の考え方を導入する。
論文 参考訳(メタデータ) (2021-08-02T03:56:35Z) - Fed-NILM: A Federated Learning-based Non-Intrusive Load Monitoring
Method for Privacy-Protection [0.1657441317977376]
非侵入負荷監視(NILM)は、全負荷読み出しをアプライアンスレベルの負荷信号に分解する。
NILMを実現するためにディープラーニングベースの手法が開発されており、ディープニューラルネットワーク(DNN)のトレーニングには、さまざまな種類のアプライアンスを含む大量の負荷データが必要である。
負荷データが不十分だが有望なモデル性能を達成することを期待するローカルデータ所有者にとって、効果的なNILMコモデリングの導出はますます重要になっている。
潜在的なリスクを排除するため,Fed-NILM ap-plying Federated Learning (FL) と呼ばれる新しいNILM法を提案する。
論文 参考訳(メタデータ) (2021-05-24T04:12:10Z) - A Federated Learning Framework for Non-Intrusive Load Monitoring [0.1657441317977376]
非侵入負荷モニタリング (NILM) は, 家庭用電力消費の総読み出しを家電製品に分解することを目的としている。
NILMデータを所有しているユーティリティやDNO間のデータ連携はますます重要になっている。
フェデレーションラーニング(FL)によるNILMのパフォーマンス向上のためのフレームワークが構築されました。
論文 参考訳(メタデータ) (2021-04-04T14:24:50Z) - Toward Smart Security Enhancement of Federated Learning Networks [109.20054130698797]
本稿では,フェデレートラーニングネットワーク(FLN)の脆弱性について概説し,毒殺攻撃の概要を紹介する。
FLNのためのスマートセキュリティ強化フレームワークを提案する。
深層強化学習は、良質なトレーニング結果を提供するエッジデバイス(ED)の挙動パターンを学ぶために応用される。
論文 参考訳(メタデータ) (2020-08-19T08:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。