論文の概要: Conv-NILM-Net, a causal and multi-appliance model for energy source
separation
- arxiv url: http://arxiv.org/abs/2208.02173v1
- Date: Wed, 3 Aug 2022 15:59:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 14:25:00.603377
- Title: Conv-NILM-Net, a causal and multi-appliance model for energy source
separation
- Title(参考訳): エネルギー源分離のための因果・多機能モデルConv-NILM-Net
- Authors: Mohamed Alami C. and J\'er\'emie Decock and Rim Kaddah and Jesse Read
- Abstract要約: 非侵入負荷モニタリングは、個々のアプライアンス電力使用量を単一のアグリゲーション測定から推定することでエネルギーを節約しようとする。
NILM問題を解決するために、ディープニューラルネットワークがますます人気になっている。
本稿では、エンドツーエンドNILMのための完全な畳み込みフレームワークであるConv-NILM-netを提案する。
- 参考スコア(独自算出の注目度): 1.1355370218310157
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-Intrusive Load Monitoring (NILM) seeks to save energy by estimating
individual appliance power usage from a single aggregate measurement. Deep
neural networks have become increasingly popular in attempting to solve NILM
problems. However most used models are used for Load Identification rather than
online Source Separation. Among source separation models, most use a
single-task learning approach in which a neural network is trained exclusively
for each appliance. This strategy is computationally expensive and ignores the
fact that multiple appliances can be active simultaneously and dependencies
between them. The rest of models are not causal, which is important for
real-time application. Inspired by Convtas-Net, a model for speech separation,
we propose Conv-NILM-net, a fully convolutional framework for end-to-end NILM.
Conv-NILM-net is a causal model for multi appliance source separation. Our
model is tested on two real datasets REDD and UK-DALE and clearly outperforms
the state of the art while keeping a significantly smaller size than the
competing models.
- Abstract(参考訳): 非侵入負荷モニタリング(Non-Intrusive Load Monitoring, NILM)は、個々のアプライアンス電力使用量を単一の集計値から推定することで省エネを図る。
NILM問題を解決するために、ディープニューラルネットワークがますます人気になっている。
しかし、ほとんどのモデルは、オンラインソース分離よりも負荷識別に使われている。
ソース分離モデルでは、ほとんどの場合、各アプライアンスに対してニューラルネットワークを専用にトレーニングするシングルタスク学習アプローチを使用する。
この戦略は計算コストが高く、複数のアプライアンスを同時に動作させ、それら間の依存関係を無視する。
他のモデルは因果関係ではなく、リアルタイムアプリケーションにとって重要である。
音声分離モデルであるConvtas-Netに触発されて,エンドツーエンドNILMのための完全な畳み込みフレームワークであるConv-NILM-netを提案する。
Conv-NILM-netはマルチアプライアンスソース分離のための因果モデルである。
我々のモデルは、REDDとUK-DALEの2つの実際のデータセットでテストされ、競合モデルよりもはるかに小さいサイズを維持しながら、明らかに芸術の状態を上回ります。
関連論文リスト
- MSDC: Exploiting Multi-State Power Consumption in Non-intrusive Load
Monitoring based on A Dual-CNN Model [18.86649389838833]
非侵入負荷モニタリング(NILM)は、集積電気利用信号から家電固有の電力消費に分解することを目的としている。
我々は新しいニューラルNILMモデルであるMulti-State Dual CNN(MSDC)を設計する。
MSDCは、アプライアンスの複数の状態と状態遷移に関する情報を明示的に抽出し、アプライアンスの信号の予測を制御する。
論文 参考訳(メタデータ) (2023-02-11T01:56:54Z) - SWARM Parallelism: Training Large Models Can Be Surprisingly
Communication-Efficient [69.61083127540776]
ディープラーニングアプリケーションは、数十億のパラメータを持つ大きなモデルを使用することの恩恵を受ける。
これらのモデルのトレーニングは、特殊なHPCクラスタを必要とするため、非常に高価である。
安価な"プリエンプティブル"インスタンスを使用するか、あるいは複数のリージョンから既存のリソースをプールする。
論文 参考訳(メタデータ) (2023-01-27T18:55:19Z) - Energy Disaggregation & Appliance Identification in a Smart Home: Transfer Learning enables Edge Computing [2.921708254378147]
非侵入負荷監視(NILM)またはエネルギー分散は、個々の家電機器の負荷プロファイルを抽出することを目的としている。
本研究は、NILM問題を解決するための新しいディープラーニングとエッジコンピューティングアプローチを提案する。
論文 参考訳(メタデータ) (2023-01-08T10:59:44Z) - MutualNet: Adaptive ConvNet via Mutual Learning from Different Model
Configurations [51.85020143716815]
MutualNetは、リソース制約の多様なセットで実行できる単一のネットワークを訓練するために提案します。
提案手法は,様々なネットワーク幅と入力解像度を持つモデル構成のコホートを訓練する。
MutualNetは、さまざまなネットワーク構造に適用できる一般的なトレーニング方法論です。
論文 参考訳(メタデータ) (2021-05-14T22:30:13Z) - A Federated Learning Framework for Non-Intrusive Load Monitoring [0.1657441317977376]
非侵入負荷モニタリング (NILM) は, 家庭用電力消費の総読み出しを家電製品に分解することを目的としている。
NILMデータを所有しているユーティリティやDNO間のデータ連携はますます重要になっている。
フェデレーションラーニング(FL)によるNILMのパフォーマンス向上のためのフレームワークが構築されました。
論文 参考訳(メタデータ) (2021-04-04T14:24:50Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z) - UVeQFed: Universal Vector Quantization for Federated Learning [179.06583469293386]
フェデレートラーニング(FL)は、ユーザがプライベートラベル付きデータを共有することなく、そのような学習モデルをトレーニングする、新たなアプローチである。
FLでは、各ユーザが学習モデルのコピーをローカルにトレーニングする。その後、サーバは個々の更新を収集し、それらをグローバルモデルに集約する。
普遍ベクトル量子化法をFLと組み合わせることで、訓練されたモデルの圧縮が最小歪みのみを誘導する分散トレーニングシステムが得られることを示す。
論文 参考訳(メタデータ) (2020-06-05T07:10:22Z) - A Unified Object Motion and Affinity Model for Online Multi-Object
Tracking [127.5229859255719]
オブジェクトの動きと親和性モデルを単一のネットワークに統一する新しいMOTフレームワークUMAを提案する。
UMAは、単一物体追跡とメートル法学習をマルチタスク学習により統合された三重項ネットワークに統合する。
我々は,タスク認識機能学習を促進するために,タスク固有のアテンションモジュールを装備する。
論文 参考訳(メタデータ) (2020-03-25T09:36:43Z) - Multi-channel U-Net for Music Source Separation [3.814858728853163]
条件付きU-Net(C-U-Net)は、マルチソース分離のための単一のモデルをトレーニングするための制御機構を使用する。
重み付きマルチタスク損失を用いたマルチチャネルU-Net(M-U-Net)を提案する。
論文 参考訳(メタデータ) (2020-03-23T17:42:35Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。