論文の概要: Enhancing Predictive Maintenance in Mining Mobile Machinery through a TinyML-enabled Hierarchical Inference Network
- arxiv url: http://arxiv.org/abs/2411.07168v2
- Date: Sat, 16 Nov 2024 19:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:26:11.684705
- Title: Enhancing Predictive Maintenance in Mining Mobile Machinery through a TinyML-enabled Hierarchical Inference Network
- Title(参考訳): TinyML対応階層型推論ネットワークによるマイニングモバイルマシンの予測保守の強化
- Authors: Raúl de la Fuente, Luciano Radrigan, Anibal S Morales,
- Abstract要約: 本稿では,予測保守のためのエッジセンサネットワーク(ESN-PdM)を紹介する。
ESN-PdMはエッジデバイス、ゲートウェイ、クラウドサービスにまたがる階層的推論フレームワークで、リアルタイムな状態監視を行う。
システムは、正確性、レイテンシ、バッテリー寿命のトレードオフに基づいて、デバイス、オンゲートウェイ、あるいはクラウド上の推論位置を動的に調整する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Mining machinery operating in variable environments faces high wear and unpredictable stress, challenging Predictive Maintenance (PdM). This paper introduces the Edge Sensor Network for Predictive Maintenance (ESN-PdM), a hierarchical inference framework across edge devices, gateways, and cloud services for real-time condition monitoring. The system dynamically adjusts inference locations--on-device, on-gateway, or on-cloud--based on trade-offs among accuracy, latency, and battery life, leveraging Tiny Machine Learning (TinyML) techniques for model optimization on resource-constrained devices. Performance evaluations showed that on-sensor and on-gateway inference modes achieved over 90\% classification accuracy, while cloud-based inference reached 99\%. On-sensor inference reduced power consumption by approximately 44\%, enabling up to 104 hours of operation. Latency was lowest for on-device inference (3.33 ms), increasing when offloading to the gateway (146.67 ms) or cloud (641.71 ms). The ESN-PdM framework provides a scalable, adaptive solution for reliable anomaly detection and PdM, crucial for maintaining machinery uptime in remote environments. By balancing accuracy, latency, and energy consumption, this approach advances PdM frameworks for industrial applications.
- Abstract(参考訳): 可変環境で動作する鉱業機械は、高い摩耗と予測不可能なストレスに直面し、予測保守(PdM)に挑戦する。
本稿では,エッジデバイス,ゲートウェイ,クラウドサービスにまたがる階層的推論フレームワークであるEdge Sensor Network for Predictive maintenance (ESN-PdM)を紹介する。
このシステムは、正確性、レイテンシ、バッテリー寿命のトレードオフに基づいて、オンデバイス、オンゲートウェイ、あるいはオンクラウドベースの推論位置を動的に調整し、Tiny Machine Learning(TinyML)技術を利用してリソース制約のあるデバイスのモデル最適化を行う。
評価の結果, オンセンサおよびオンゲートウェイ推論モードは90%以上, クラウドベース推論は9%以上であった。
オンセンサー推論により消費電力は約44\%削減され、最大104時間の運転が可能となった。
遅延はオンデバイス推論(3.33ms)では最低であり、ゲートウェイ(146.67ms)やクラウド(641.71ms)へのオフロード時に増加する。
ESN-PdMフレームワークは、信頼性の高い異常検出のためのスケーラブルで適応的なソリューションを提供する。
精度、レイテンシ、エネルギー消費のバランスをとることで、このアプローチは産業アプリケーションのためのPdMフレームワークを進化させる。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - DSORT-MCU: Detecting Small Objects in Real-Time on Microcontroller Units [1.4447019135112429]
本稿では,YOLOモデルや一般的なFOMOネットワークを含む,軽量でエネルギー効率の高い物体検出ネットワークに対する適応型タイリング手法を提案する。
提案したタイリングにより,大規模検出モデルと比較して精度が損なわれることなく,低消費電力のMCU上で物体検出が可能となる。
論文 参考訳(メタデータ) (2024-10-22T07:37:47Z) - Exploring the Boundaries of On-Device Inference: When Tiny Falls Short, Go Hierarchical [4.211747495359569]
Hierarchical Inference (HI)システムは、選択したサンプルをエッジサーバやクラウドにオフロードして、リモートML推論を行う。
本稿では, HIの精度, レイテンシ, エネルギーの測定値に基づいて, デバイス上での推論性能を系統的に比較する。
論文 参考訳(メタデータ) (2024-07-10T16:05:43Z) - Introducing a Deep Neural Network-based Model Predictive Control
Framework for Rapid Controller Implementation [41.38091115195305]
本研究は、HCCI燃焼制御のためのディープニューラルネットワーク(DNN)に基づく非線形MPCの実験的実装を示す。
ARM Cortex A72上のMPCのリアルタイム実装を可能にするために、Acadosソフトウェアパッケージを使用することで、最適化計算は1.4ms以内で完了する。
現像した制御器のIMEP軌道は, プロセス制約の観測に加えて, 根平均2乗誤差0.133バールで良好であった。
論文 参考訳(メタデータ) (2023-10-12T15:03:50Z) - Evaluating Short-Term Forecasting of Multiple Time Series in IoT
Environments [67.24598072875744]
IoT(Internet of Things)環境は、多数のIoT対応センシングデバイスを介して監視される。
この問題を緩和するため、センサーは比較的低いサンプリング周波数で動作するように設定されることが多い。
これは、予測などの後続の意思決定を劇的に妨げる可能性がある。
論文 参考訳(メタデータ) (2022-06-15T19:46:59Z) - Energy-Efficient Wake-Up Signalling for Machine-Type Devices Based on
Traffic-Aware Long-Short Term Memory Prediction [10.51090547010728]
Wake-up Signal (WuS)技術は、機械型デバイス(MTD)の無線インタフェースが消費するエネルギーを最小化する
我々は、MSCトラフィックパターンを予測し、それに応じてWuSを構成するための、単純だが効率的なニューラルネットワークを設計する。
エネルギー消費の削減に関して、FWuSは最大32%で最高のベンチマークメカニズムを上回ります。
論文 参考訳(メタデータ) (2022-06-13T11:42:22Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - Energy-efficient and Privacy-aware Social Distance Monitoring with
Low-resolution Infrared Sensors and Adaptive Inference [4.158182639870093]
低分解能赤外線センサを利用して、屋内空間におけるプライバシー保護社会距離監視ソリューションを実装できる。
簡単な起動トリガと8ビット量子化畳み込みニューラルネットワーク(CNN)のカスケードで構成されるエネルギー効率の良い適応型推論ソリューションを提案する。
8x8の低分解能赤外線センサの出力を処理すると、静的CNNベースのアプローチでエネルギー消費量を37~57%削減できることを示す。
論文 参考訳(メタデータ) (2022-04-22T07:07:38Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。