論文の概要: LAD-BNet: Lag-Aware Dual-Branch Networks for Real-Time Energy Forecasting on Edge Devices
- arxiv url: http://arxiv.org/abs/2511.10680v1
- Date: Tue, 11 Nov 2025 03:55:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.260448
- Title: LAD-BNet: Lag-Aware Dual-Branch Networks for Real-Time Energy Forecasting on Edge Devices
- Title(参考訳): LAD-BNet:エッジデバイスにおけるリアルタイムエネルギー予測のためのラグ対応デュアルブランチネットワーク
- Authors: Jean-Philippe Lignier,
- Abstract要約: Google Coral TPUを用いたエッジ推論に最適化された革新的なニューラルネットワークであるLAD-BNetを提案する。
我々のハイブリッドアプローチは、時間的ラグの明示的な利用に特化したブランチと、拡張畳み込みを特徴とする時間的畳み込みネットワーク(TCN)を組み合わせることで、短期的および長期的依存関係の同時取得を可能にします。
10分間の時間分解能を持つ実エネルギー消費データに基づいて、LAD-BNetは1時間水平線で14.49%のMAPEを達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time energy forecasting on edge devices represents a major challenge for smart grid optimization and intelligent buildings. We present LAD-BNet (Lag-Aware Dual-Branch Network), an innovative neural architecture optimized for edge inference with Google Coral TPU. Our hybrid approach combines a branch dedicated to explicit exploitation of temporal lags with a Temporal Convolutional Network (TCN) featuring dilated convolutions, enabling simultaneous capture of short and long-term dependencies. Tested on real energy consumption data with 10-minute temporal resolution, LAD-BNet achieves 14.49% MAPE at 1-hour horizon with only 18ms inference time on Edge TPU, representing an 8-12 x acceleration compared to CPU. The multi-scale architecture enables predictions up to 12 hours with controlled performance degradation. Our model demonstrates a 2.39% improvement over LSTM baselines and 3.04% over pure TCN architectures, while maintaining a 180MB memory footprint suitable for embedded device constraints. These results pave the way for industrial applications in real-time energy optimization, demand management, and operational planning.
- Abstract(参考訳): エッジデバイス上でのリアルタイムエネルギー予測は、スマートグリッド最適化とインテリジェントな建物にとって大きな課題である。
Google Coral TPUを用いたエッジ推論に最適化された革新的なニューラルネットワークであるLAD-BNet(Lag-Aware Dual-Branch Network)を提案する。
我々のハイブリッドアプローチは、時間的ラグの明示的な利用に特化したブランチと、拡張畳み込みを特徴とする時間的畳み込みネットワーク(TCN)を組み合わせることで、短期的および長期的依存関係の同時取得を可能にします。
10分間の時間分解能を持つ実エネルギー消費データに基づいて、LAD-BNetは1時間水平線で14.49%のMAPEを達成した。
マルチスケールアーキテクチャは、最大12時間の予測を可能にする。
我々のモデルは、LSTMベースラインよりも2.39%改善し、純粋なTNアーキテクチャよりも3.04%改善し、組み込みデバイス制約に適した180MBのメモリフットプリントを維持している。
これらの結果は、リアルタイムエネルギー最適化、需要管理、運用計画における産業応用の道を開いた。
関連論文リスト
- Accelerating Linear Recurrent Neural Networks for the Edge with Unstructured Sparsity [39.483346492111515]
線形リカレントニューラルネットワークは、推論中に一定のメモリ使用量と時間毎の時間を含む強力な長距離シーケンスモデリングを可能にする。
非構造化空間は、互換性のあるハードウェアプラットフォームによって加速されるときに、計算とメモリの要求を大幅に削減できる魅力的なソリューションを提供する。
非常に疎い線形RNNは、高密度ベースラインよりも高い効率と性能のトレードオフを一貫して達成している。
論文 参考訳(メタデータ) (2025-02-03T13:09:21Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - TCN Mapping Optimization for Ultra-Low Power Time-Series Edge Inference [20.613281059206304]
時間的畳み込みネットワーク(TCN)は、時系列分析のための軽量なディープラーニングモデルを生み出している。
本稿では,Parallel Ultra-Low Power(PULP)マイクロコントローラ上でTNをマッピングするための,自動探索手法と最適化カーネルのライブラリを導入する。
STM32L4で実行されるCube-AIツールキットよりも最大103倍低レイテンシと20.3倍低エネルギーを実現した商用PULPデバイス上でのアプローチをベンチマークした。
論文 参考訳(メタデータ) (2022-03-24T08:15:17Z) - PhiNets: a scalable backbone for low-power AI at the edge [2.7910505923792646]
PhiNetsは、リソース制約のあるプラットフォーム上でのディープラーニングベースの画像処理に最適化された、スケーラブルなバックボーンである。
PhiNetは計算コスト、動作メモリ、パラメータメモリを分離するために特別に設計された逆残差ブロックに基づいている。
STM32H743マイクロコントローラをベースとしたプロトタイプノードへのアプローチを実証する。
論文 参考訳(メタデータ) (2021-10-01T12:03:25Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。