論文の概要: Fed-NILM: A Federated Learning-based Non-Intrusive Load Monitoring
Method for Privacy-Protection
- arxiv url: http://arxiv.org/abs/2105.11085v1
- Date: Mon, 24 May 2021 04:12:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 14:54:09.540489
- Title: Fed-NILM: A Federated Learning-based Non-Intrusive Load Monitoring
Method for Privacy-Protection
- Title(参考訳): Fed-NILM: プライバシー保護のためのフェデレーション学習に基づく非侵入負荷モニタリング手法
- Authors: Haijin Wang, Caomingzhe Si, Junhua Zhao
- Abstract要約: 非侵入負荷監視(NILM)は、全負荷読み出しをアプライアンスレベルの負荷信号に分解する。
NILMを実現するためにディープラーニングベースの手法が開発されており、ディープニューラルネットワーク(DNN)のトレーニングには、さまざまな種類のアプライアンスを含む大量の負荷データが必要である。
負荷データが不十分だが有望なモデル性能を達成することを期待するローカルデータ所有者にとって、効果的なNILMコモデリングの導出はますます重要になっている。
潜在的なリスクを排除するため,Fed-NILM ap-plying Federated Learning (FL) と呼ばれる新しいNILM法を提案する。
- 参考スコア(独自算出の注目度): 0.1657441317977376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-intrusive load monitoring (NILM) decomposes the total load reading into
appliance-level load signals. Many deep learning-based methods have been
developed to accomplish NILM, and the training of deep neural networks (DNN)
requires massive load data containing different types of appliances. For local
data owners with inadequate load data but expect to accomplish a promising
model performance, the conduction of effective NILM co-modelling is
increasingly significant. While during the cooperation of local data owners,
data exchange and centralized data storage may increase the risk of power
consumer privacy breaches. To eliminate the potential risks, a novel NILM
method named Fed-NILM ap-plying Federated Learning (FL) is proposed in this
paper. In Fed-NILM, local parameters instead of load data are shared among
local data owners. The global model is obtained by weighted averaging the
parameters. In the experiments, Fed-NILM is validated on two real-world
datasets. Besides, a comparison of Fed-NILM with locally-trained NILMs and the
centrally-trained one is conducted in both residential and industrial
scenarios. The experimental results show that Fed-NILM outperforms
locally-trained NILMs and approximate the centrally-trained NILM which is
trained on the entire load dataset without privacy preservation.
- Abstract(参考訳): non-intrusive load monitoring (nilm) は全負荷をアプライアンスレベルの負荷信号に分解する。
NILMを実現するために多くのディープラーニングベースの手法が開発されており、ディープニューラルネットワーク(DNN)のトレーニングにはさまざまな種類のアプライアンスを含む大量の負荷データが必要である。
負荷が不十分で有望なモデル性能を期待できるローカルデータ所有者にとって、効果的なnilm共同モデリングの伝導性はますます重要になっている。
ローカルデータ所有者の協力の下で、データ交換と集中型データストレージは、消費者プライバシ侵害のリスクを高める可能性がある。
潜在的なリスクを排除するため,Fed-NILM ap-plying Federated Learning (FL) と呼ばれる新しいNILM法を提案する。
Fed-NILMでは、ロードデータの代わりにローカルパラメータをローカルデータ所有者間で共有する。
大域モデルは、パラメータの平均を重み付けして得られる。
実験では、Fed-NILMは2つの実世界のデータセットで検証される。
また,feed-nilmと局地的に訓練されたnilmと中央訓練されたnilmの比較は,住宅と産業の両方のシナリオで実施されている。
実験の結果,Fed-NILMは局所的に訓練されたNILMよりも優れており,プライバシ保護を伴わない負荷データセット全体をトレーニングしたNILMに近似していることがわかった。
関連論文リスト
- Benchmarking Active Learning for NILM [2.896640219222859]
非侵入負荷モニタリング(NILM)は、家電固有の用途に家庭の電力消費を分散させることに焦点を当てている。
多くの高度なNILM法は、通常大量のラベル付きアプライアンスデータを必要とするニューラルネットワークに基づいている。
限られた住宅に家電モニターを選択的に設置するための能動的学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-24T12:22:59Z) - Entropy Law: The Story Behind Data Compression and LLM Performance [115.70395740286422]
モデル性能はトレーニングデータの圧縮比と負の相関関係にあり,トレーニング損失が小さくなるのが普通である。
エントロピー法則の知見に基づいて, 極めて効率的で普遍的なデータ選択法を提案する。
また,モデルトレーニング開始時の潜在的な性能リスクを検出するエントロピー法則の興味深い応用を提案する。
論文 参考訳(メタデータ) (2024-07-09T08:14:29Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - DP$^2$-NILM: A Distributed and Privacy-preserving Framework for
Non-intrusive Load Monitoring [7.934421564157628]
非侵入負荷モニタリング(NILM)は、ユーザの電力消費行動を分析するのに役立つ。
最近の研究で、フェデレート深層学習(FL)に基づく多くの新しいNILMフレームワークが提案されている。
論文 参考訳(メタデータ) (2022-06-30T18:18:25Z) - FedCL: Federated Contrastive Learning for Privacy-Preserving
Recommendation [98.5705258907774]
FedCLは、プライバシーを十分に保護した効果的なモデルトレーニングのために、高品質な負のサンプルを利用することができる。
まず、各クライアントのローカルモデルを介してローカルユーザデータからユーザ埋め込みを推測し、その後、ローカルディファレンシャルプライバシ(LDP)で摂動する。
個々のユーザ埋め込みにはLDPによる重騒音が伴うため,ノイズの影響を軽減するため,サーバ上にユーザ埋め込みをクラスタ化することを提案する。
論文 参考訳(メタデータ) (2022-04-21T02:37:10Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - FederatedNILM: A Distributed and Privacy-preserving Framework for
Non-intrusive Load Monitoring based on Federated Deep Learning [8.230120882304723]
本稿では,NILM(FederatedNILM)のための分散・プライバシ保護型深層学習フレームワークを開発する。
フェデレートNILMは、連邦学習と最先端のディープラーニングアーキテクチャを組み合わせることで、家電の典型的な状態を分類するためのNILMを実行する。
論文 参考訳(メタデータ) (2021-08-08T08:56:40Z) - FedNILM: Applying Federated Learning to NILM Applications at the Edge [17.322648858451995]
我々は、エッジクライアントでのNILMアプリケーションのための実用的なFLパラダイムであるFedNILMを提示する。
特にFedNILMは、プライバシ保護とパーソナライズされたNILMサービスを大規模エッジクライアントに提供するように設計されている。
実世界のエネルギーデータに関する実験により、FedNILMは最先端の精度でパーソナライズされたエネルギー分散を実現することができることを示した。
論文 参考訳(メタデータ) (2021-06-07T04:05:19Z) - A Federated Learning Framework for Non-Intrusive Load Monitoring [0.1657441317977376]
非侵入負荷モニタリング (NILM) は, 家庭用電力消費の総読み出しを家電製品に分解することを目的としている。
NILMデータを所有しているユーティリティやDNO間のデータ連携はますます重要になっている。
フェデレーションラーニング(FL)によるNILMのパフォーマンス向上のためのフレームワークが構築されました。
論文 参考訳(メタデータ) (2021-04-04T14:24:50Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。