論文の概要: Trimming Feature Extraction and Inference for MCU-based Edge NILM: a
Systematic Approach
- arxiv url: http://arxiv.org/abs/2105.10302v1
- Date: Fri, 21 May 2021 12:08:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:18:24.694468
- Title: Trimming Feature Extraction and Inference for MCU-based Edge NILM: a
Systematic Approach
- Title(参考訳): MCUに基づくエッジNILMのトリミング特徴抽出と推論:システム的アプローチ
- Authors: Enrico Tabanelli, Davide Brunelli, Andrea Acquaviva, Luca Benini
- Abstract要約: 非侵入負荷モニタリング(NILM)は、複数の負荷のグローバルな電力消費を、単一のスマート電気メーターから、アプライアンスレベルの詳細に分解することを可能にする。
State-of-the-Artアプローチは機械学習手法に基づいており、電流と電圧センサーからの時間領域と周波数領域の機能の融合を利用する。
低レイテンシNILMを低コストでリソース制約のあるMCUベースのメーターで実行することは、現在オープンな課題である。
本稿では,特徴空間の最適化と,ステート・オブ・ザ・ステートの実行に必要な計算・記憶コストの削減について述べる。
- 参考スコア(独自算出の注目度): 14.491636333680297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-Intrusive Load Monitoring (NILM) enables the disaggregation of the global
power consumption of multiple loads, taken from a single smart electrical
meter, into appliance-level details. State-of-the-Art approaches are based on
Machine Learning methods and exploit the fusion of time- and frequency-domain
features from current and voltage sensors. Unfortunately, these methods are
compute-demanding and memory-intensive. Therefore, running low-latency NILM on
low-cost, resource-constrained MCU-based meters is currently an open challenge.
This paper addresses the optimization of the feature spaces as well as the
computational and storage cost reduction needed for executing State-of-the-Art
(SoA) NILM algorithms on memory- and compute-limited MCUs. We compare four
supervised learning techniques on different classification scenarios and
characterize the overall NILM pipeline's implementation on a MCU-based Smart
Measurement Node. Experimental results demonstrate that optimizing the feature
space enables edge MCU-based NILM with 95.15% accuracy, resulting in a small
drop compared to the most-accurate feature vector deployment (96.19%) while
achieving up to 5.45x speed-up and 80.56% storage reduction. Furthermore, we
show that low-latency NILM relying only on current measurements reaches almost
80% accuracy, allowing a major cost reduction by removing voltage sensors from
the hardware design.
- Abstract(参考訳): 非侵入負荷モニタリング(NILM)は、複数の負荷のグローバルな電力消費を、単一のスマート電気メーターから、アプライアンスレベルの詳細に分解することを可能にする。
最先端のアプローチは機械学習手法に基づいており、電流と電圧センサーから時間領域と周波数領域の機能を統合する。
残念ながら、これらのメソッドは計算要求とメモリ集約です。
したがって、低遅延NILMを低コストで資源制約のMCUベースで実行することは、現在オープンな課題である。
本稿では,メモリおよび計算制限付きmcu上での最先端(soa)nilmアルゴリズムの実行に必要な計算コストとストレージコストの削減に加えて,特徴空間の最適化について述べる。
異なる分類シナリオにおける4つの教師あり学習手法を比較し,MCUベースのスマート計測ノード上でのNILMパイプラインの実装を特徴付ける。
実験の結果、特徴空間の最適化により、エッジMCUベースのNILMを95.15%の精度で実現し、最大5.45倍のスピードアップと80.56%のストレージ削減を実現しながら、最も正確な特徴ベクトル展開(96.19%)に比べて小さな低下をもたらすことが示された。
さらに,電流測定のみに依存する低遅延nilmはほぼ80%の精度に到達し,ハードウェア設計から電圧センサを取り外すことで大幅なコスト削減が可能となることを示した。
関連論文リスト
- Progressive Mixed-Precision Decoding for Efficient LLM Inference [49.05448842542558]
我々は,デコーディングのメモリバウンドネスに対処するために,プログレッシブ・ミックス・プレシジョン・デコーディング(PMPD)を導入する。
PMPDはfp16モデルの行列ベクトル乗算において1.4$-$12.2$times$ Speedupを達成する。
我々の手法は、fp16モデルよりも3.8$-$8.0$times$、均一量子化アプローチよりも1.54$times$のスループット向上をもたらす。
論文 参考訳(メタデータ) (2024-10-17T11:46:33Z) - Accelerating TinyML Inference on Microcontrollers through Approximate Kernels [3.566060656925169]
本研究では、近似計算とソフトウェアカーネル設計を組み合わせることで、マイクロコントローラ上での近似CNNモデルの推定を高速化する。
CIFAR-10データセットでトレーニングされたSTM32-Nucleoボードと2つの人気のあるCNNによる評価は、最先端の正確な推測と比較すると、平均21%のレイテンシ削減が可能であることを示している。
論文 参考訳(メタデータ) (2024-09-25T11:10:33Z) - Parameter-Adaptive Approximate MPC: Tuning Neural-Network Controllers without Retraining [50.00291020618743]
この研究は、大規模なデータセットを再計算し、再トレーニングすることなくオンラインチューニングが可能な、新しいパラメータ適応型AMPCアーキテクチャを導入している。
資源制約の厳しいマイクロコントローラ(MCU)を用いた2種類の実カートポールシステムの揺らぎを制御し,パラメータ適応型AMPCの有効性を示す。
これらの貢献は、現実世界のシステムにおけるAMPCの実践的応用に向けた重要な一歩である。
論文 参考訳(メタデータ) (2024-04-08T20:02:19Z) - A Precision-Optimized Fixed-Point Near-Memory Digital Processing Unit
for Analog In-Memory Computing [10.992736723518036]
固定点演算に基づくNMPU(Near-Memory Digital Processing Unit)を提案する。
従来の手法よりも競争精度と高い計算スループットを実現している。
我々は,AIMCチップのデータを用いてNMPUの有効性を検証するとともに,提案したNMPUを用いたシミュレーションAIMCシステムが,既存のFP16ベースの実装よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-12T10:30:45Z) - Tube-NeRF: Efficient Imitation Learning of Visuomotor Policies from MPC
using Tube-Guided Data Augmentation and NeRFs [42.220568722735095]
感性学習(IL)は資源集約型モデル予測制御器(MPC)から計算効率の高い感触者ポリシーを訓練できる
本稿では,ビジョンベースのポリシーを効率的に学習するデータ拡張(DA)戦略を提案する。
実演効率は80倍に向上し,現行のIL法に比べてトレーニング時間を50%削減した。
論文 参考訳(メタデータ) (2023-11-23T18:54:25Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - Fast Flux-Activated Leakage Reduction for Superconducting Quantum
Circuits [84.60542868688235]
量子ビット実装のマルチレベル構造から生じる計算部分空間から漏れること。
パラメトリックフラックス変調を用いた超伝導量子ビットの資源効率向上のためのユニバーサルリーク低減ユニットを提案する。
繰り返し重み付け安定化器測定におけるリーク低減ユニットの使用により,検出されたエラーの総数を,スケーラブルな方法で削減できることを実証した。
論文 参考訳(メタデータ) (2023-09-13T16:21:32Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - A Novel Hybrid Deep Learning Approach for Non-Intrusive Load Monitoring
of Residential Appliance Based on Long Short Term Memory and Convolutional
Neural Networks [0.0]
エネルギーの分解または非侵入負荷監視(NILM)は、単一入力ブラインド源の識別問題です。
本稿では、畳み込みニューラルネットワーク(CNN)を併用したLSTM(Deep Recurrent long term memory)ネットワークによる電力分散の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-15T22:34:20Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Q-EEGNet: an Energy-Efficient 8-bit Quantized Parallel EEGNet
Implementation for Edge Motor-Imagery Brain--Machine Interfaces [16.381467082472515]
運動画像脳-機械インタフェース(MI-BMI)は、人間の脳と機械間の直接的かつアクセス可能なコミュニケーションをプロミットする。
脳波信号を分類するためのディープラーニングモデルが登場した。
これらのモデルは、メモリと計算要求のため、エッジデバイスの限界を超えることが多い。
論文 参考訳(メタデータ) (2020-04-24T12:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。