論文の概要: EdgeMLOps: Operationalizing ML models with Cumulocity IoT and thin-edge.io for Visual quality Inspection
- arxiv url: http://arxiv.org/abs/2501.17062v1
- Date: Tue, 28 Jan 2025 16:40:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:43:07.141619
- Title: EdgeMLOps: Operationalizing ML models with Cumulocity IoT and thin-edge.io for Visual quality Inspection
- Title(参考訳): EdgeMLOps: ビジュアル品質検査のためのCumulocity IoTとThin-edge.ioを使用したMLモデルの運用
- Authors: Kanishk Chaturvedi, Johannes Gasthuber, Mohamed Abdelaal,
- Abstract要約: 本稿では、リソース制約のあるエッジデバイス上で機械学習モデルをデプロイおよび管理するために、Cumu IoTとThin-edge.ioを活用するフレームワークであるEdgeMLOpsを紹介する。
エッジ環境におけるモデル最適化、デプロイメント、ライフサイクル管理の課題に対処する。
フレームワークの有効性は、エッジデバイス上で資産のイメージを処理する視覚的品質検査(VQI)のユースケースを通じて実証され、資産管理システム内でリアルタイムの条件更新を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper introduces EdgeMLOps, a framework leveraging Cumulocity IoT and thin-edge.io for deploying and managing machine learning models on resource-constrained edge devices. We address the challenges of model optimization, deployment, and lifecycle management in edge environments. The framework's efficacy is demonstrated through a visual quality inspection (VQI) use case where images of assets are processed on edge devices, enabling real-time condition updates within an asset management system. Furthermore, we evaluate the performance benefits of different quantization methods, specifically static and dynamic signed-int8, on a Raspberry Pi 4, demonstrating significant inference time reductions compared to FP32 precision. Our results highlight the potential of EdgeMLOps to enable efficient and scalable AI deployments at the edge for industrial applications.
- Abstract(参考訳): 本稿では、リソース制約のあるエッジデバイス上で機械学習モデルをデプロイおよび管理するために、Cumulocity IoTとThin-edge.ioを活用するフレームワークであるEdgeMLOpsを紹介する。
エッジ環境におけるモデル最適化、デプロイメント、ライフサイクル管理の課題に対処する。
フレームワークの有効性は、エッジデバイス上で資産のイメージを処理する視覚的品質検査(VQI)のユースケースを通じて実証され、資産管理システム内でリアルタイムの条件更新を可能にする。
さらに,Raspberry Pi 4における量子化手法,特に静的および動的符号int8の性能評価を行い,FP32の精度と比較して推定時間を大幅に短縮した。
当社の結果は、EdgeMLOpsが産業アプリケーションにおいて、エッジでの効率的でスケーラブルなAIデプロイメントを可能にする可能性を強調しています。
関連論文リスト
- Efficient Split Learning LSTM Models for FPGA-based Edge IoT Devices [4.788487793976781]
Split Learning(SL)は、IoT(Internet of Things)クラウドシステムに適した分散機械学習(ML)のための効率的なパラダイムである。
リソース制約のあるエッジIoTプラットフォームにSLをデプロイすることは、モデルパフォーマンスと処理、メモリ、エネルギーリソースとのバランスにおいて大きな課題となる。
本研究では,実世界のフィールド・プログラマブルゲートアレイ(FPGA)ベースのエッジIoTプラットフォーム上にSLフレームワークをデプロイする実践的研究を行う。
論文 参考訳(メタデータ) (2025-02-12T15:51:39Z) - EdgeMLBalancer: A Self-Adaptive Approach for Dynamic Model Switching on Resource-Constrained Edge Devices [0.0]
エッジデバイス上の機械学習は、リソース制約のある環境でリアルタイムAIアプリケーションを可能にする。
計算資源を管理する既存のソリューションは、しばしば正確さやエネルギー効率に焦点を絞っている。
エッジデバイス上でのCPU利用とリソース管理を最適化する自己適応型アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-10T14:11:29Z) - Towards smart and adaptive agents for active sensing on edge devices [4.2534846356464815]
TinyMLは、低消費電力エッジデバイスにディープラーニングモデルをデプロイ可能にする。
ディープラーニングのスケーリング法則は、Edge上にデプロイしても適用できない。
本稿では,デバイス上での認識と計画を行うスマートエージェントシステムを提案する。
論文 参考訳(メタデータ) (2025-01-09T13:27:02Z) - Efficient Detection Framework Adaptation for Edge Computing: A Plug-and-play Neural Network Toolbox Enabling Edge Deployment [59.61554561979589]
エッジコンピューティングは、時間に敏感なシナリオでディープラーニングベースのオブジェクト検出をデプロイするための重要なパラダイムとして登場した。
既存のエッジ検出手法では、軽量モデルによる検出精度のバランスの難しさ、適応性の制限、現実の検証の不十分といった課題に直面している。
本稿では,汎用的なプラグイン・アンド・プレイコンポーネントを用いてエッジ環境にオブジェクト検出モデルを適用するエッジ検出ツールボックス(ED-TOOLBOX)を提案する。
論文 参考訳(メタデータ) (2024-12-24T07:28:10Z) - Tackling the Dynamicity in a Production LLM Serving System with SOTA Optimizations via Hybrid Prefill/Decode/Verify Scheduling on Efficient Meta-kernels [12.77187564450236]
本稿では,多機能なAscendネイティブ,エンドツーエンド生産型大規模言語モデル(LLM)サービスシステムであるXY-Serveを紹介する。
中心となる考え方は、計算をきめ細かいメタプリミティブに分解することで、ワークロードの変動を円滑にする抽象化メカニズムである。
GEMMでは,動的形状変化に適応する仮想パディング方式を導入し,高効率な固定タイルサイズGEMMプリミティブを用いた。
論文 参考訳(メタデータ) (2024-12-24T02:27:44Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - R-AIF: Solving Sparse-Reward Robotic Tasks from Pixels with Active Inference and World Models [50.19174067263255]
我々は、エージェントがスパース・リワード、継続的なアクション、ゴールベースのロボット制御POMDP環境においてエクササイズするのを助けるために、事前の選好学習手法と自己修正スケジュールを導入する。
我々のエージェントは、累積報酬、相対安定性、成功率の観点から、最先端モデルよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-09-21T18:32:44Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Perceiver-VL: Efficient Vision-and-Language Modeling with Iterative
Latent Attention [100.81495948184649]
本稿では,長いビデオやテキストなどの高次元マルチモーダル入力を効率的に処理する視覚・言語フレームワークPerceiver-VLを提案する。
我々のフレームワークは、多くの最先端のトランスフォーマーベースモデルで使用される自己注意の二次的な複雑さとは対照的に、線形複雑性でスケールする。
論文 参考訳(メタデータ) (2022-11-21T18:22:39Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。