論文の概要: Automated Energy-Aware Time-Series Model Deployment on Embedded FPGAs for Resilient Combined Sewer Overflow Management
- arxiv url: http://arxiv.org/abs/2508.13905v1
- Date: Tue, 19 Aug 2025 15:06:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.975971
- Title: Automated Energy-Aware Time-Series Model Deployment on Embedded FPGAs for Resilient Combined Sewer Overflow Management
- Title(参考訳): レジリエンス結合型下水オーバーフロー管理のための組み込みFPGAにおけるエネルギーを考慮した時系列モデルの自動配置
- Authors: Tianheng Ling, Vipin Singh, Chao Qian, Felix Biessmann, Gregor Schiele,
- Abstract要約: 気候変動によって激化する極度の気象現象は、下水道システムの老朽化に挑戦する傾向にある。
下水道流域充填量の予測は早期介入に有効な洞察を与えることができる。
本稿では,エッジデバイス上でエネルギー効率の高い推論を可能にするエンドツーエンド予測フレームワークを提案する。
- 参考スコア(独自算出の注目度): 17.903318666906728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extreme weather events, intensified by climate change, increasingly challenge aging combined sewer systems, raising the risk of untreated wastewater overflow. Accurate forecasting of sewer overflow basin filling levels can provide actionable insights for early intervention, helping mitigating uncontrolled discharge. In recent years, AI-based forecasting methods have offered scalable alternatives to traditional physics-based models, but their reliance on cloud computing limits their reliability during communication outages. To address this, we propose an end-to-end forecasting framework that enables energy-efficient inference directly on edge devices. Our solution integrates lightweight Transformer and Long Short-Term Memory (LSTM) models, compressed via integer-only quantization for efficient on-device execution. Moreover, an automated hardware-aware deployment pipeline is used to search for optimal model configurations by jointly minimizing prediction error and energy consumption on an AMD Spartan-7 XC7S15 FPGA. Evaluated on real-world sewer data, the selected 8-bit Transformer model, trained on 24 hours of historical measurements, achieves high accuracy (MSE 0.0376) at an energy cost of 0.370 mJ per inference. In contrast, the optimal 8-bit LSTM model requires significantly less energy (0.009 mJ, over 40x lower) but yields 14.89% worse accuracy (MSE 0.0432) and much longer training time. This trade-off highlights the need to align model selection with deployment priorities, favoring LSTM for ultra-low energy consumption or Transformer for higher predictive accuracy. In general, our work enables local, energy-efficient forecasting, contributing to more resilient combined sewer systems. All code can be found in the GitHub Repository (https://github.com/tianheng-ling/EdgeOverflowForecast).
- Abstract(参考訳): 気候変動によって激化する極度の気象現象は、老朽化した複合下水道システムに挑戦し、未処理の排水過剰のリスクを増大させた。
下水流域の充填量の正確な予測は、早期介入のための実用的な洞察を与え、制御不能な排出を緩和するのに役立つ。
近年、AIベースの予測手法は、従来の物理モデルに代わるスケーラブルな代替手段を提供しているが、クラウドコンピューティングに依存しているため、通信の停止時に信頼性が制限されている。
そこで本稿では,エッジデバイス上でエネルギー効率の高い推論を可能にするエンドツーエンド予測フレームワークを提案する。
我々のソリューションは軽量トランスフォーマーとLong Short-Term Memory(LSTM)モデルを統合する。
さらに,AMD Spartan-7 XC7S15 FPGA上での予測誤差とエネルギー消費を共同で最小化することにより,最適モデル構成の探索にハードウェアを意識した自動配置パイプラインを用いる。
実世界の下水道データに基づいて、24時間の歴史測定に基づいて訓練された8ビットトランスフォーマーモデル(MSE 0.0376)は、1回の推論で0.370 mJのエネルギーコストで高い精度(MSE 0.0376)を達成する。
対照的に、最適8ビットLSTMモデルはエネルギーを著しく少なくする(0.009 mJ、40倍以下)が、14.89%の精度(MSE 0.0432)とより長い訓練時間を必要とする。
このトレードオフは、モデル選択をデプロイメントの優先順位に合わせることの必要性を強調し、超低エネルギー消費にLSTM、予測精度にトランスフォーマーを優先する。
概して、我々の研究は局所的でエネルギー効率の高い予測を可能にし、よりレジリエントな複合下水道システムに寄与する。
すべてのコードはGitHub Repository(https://github.com/tianheng-ling/EdgeOverflowForecast)で見ることができる。
関連論文リスト
- Fremer: Lightweight and Effective Frequency Transformer for Workload Forecasting in Cloud Services [9.687789919349523]
本稿では,効率的かつ効果的な深層予測モデルであるFremerを提案する。
Fremerは3つの重要な要件を満たす: 優れた効率を示し、ほとんどのTransformerベースの予測モデルを上回る。
作業負荷予測において、すべての最先端(SOTA)モデルを上回る、例外的な精度を実現している。
論文 参考訳(メタデータ) (2025-07-17T08:51:28Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - Enhancing Predictive Maintenance in Mining Mobile Machinery through a TinyML-enabled Hierarchical Inference Network [0.0]
本稿では,予測保守のためのエッジセンサネットワーク(ESN-PdM)を紹介する。
ESN-PdMはエッジデバイス、ゲートウェイ、クラウドサービスにまたがる階層的推論フレームワークで、リアルタイムな状態監視を行う。
システムは、正確性、レイテンシ、バッテリー寿命のトレードオフに基づいて、デバイス、オンゲートウェイ、あるいはクラウド上の推論位置を動的に調整する。
論文 参考訳(メタデータ) (2024-11-11T17:48:04Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - GNN4REL: Graph Neural Networks for Predicting Circuit Reliability
Degradation [7.650966670809372]
我々はグラフニューラルネットワーク(GNN)を用いて、プロセスの変動とデバイス老化が回路内の任意の経路の遅延に与える影響を正確に推定する。
GNN4RELは、工業用14nm計測データに対して校正されたFinFET技術モデルに基づいて訓練されている。
我々は、平均絶対誤差を0.01ポイントまで下げて、全経路(特に数秒以内)の遅延劣化をうまく見積もった。
論文 参考訳(メタデータ) (2022-08-04T20:09:12Z) - Cascaded Deep Hybrid Models for Multistep Household Energy Consumption
Forecasting [5.478764356647437]
本研究は,多段階家庭電力消費予測のための2つのハイブリッドキャスケードモデルを提案する。
提案したハイブリッドモデルでは,既存のマルチステップ電力消費予測手法よりも優れた予測性能が得られる。
論文 参考訳(メタデータ) (2022-07-06T11:02:23Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z) - Highly Efficient Salient Object Detection with 100K Parameters [137.74898755102387]
そこで我々は,段階内および複数ステージのマルチスケール機能を効率的に活用するために,フレキシブルな畳み込みモジュールであるOctoConv(gOctConv)を提案する。
我々は、非常に軽量なモデル、すなわちCSNetを構築し、一般的なオブジェクト検出ベンチマークで、約0.2%(100k)の大規模モデルで同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-12T07:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。