論文の概要: A Deep Learning-based Pest Insect Monitoring System for Ultra-low Power Pocket-sized Drones
- arxiv url: http://arxiv.org/abs/2407.00815v1
- Date: Tue, 2 Apr 2024 10:39:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 22:38:24.159879
- Title: A Deep Learning-based Pest Insect Monitoring System for Ultra-low Power Pocket-sized Drones
- Title(参考訳): 深層学習による極低出力ポケット型ドローンの害虫モニタリングシステム
- Authors: Luca Crupi, Luca Butera, Alberto Ferrante, Daniele Palossi,
- Abstract要約: スマート農業と精密農業は、効率的で持続可能な農業のためのゲームチェンジャー技術である。
小型のパームサイズのドローンは、作物を検査する柔軟なスマートセンサーとして機能し、害虫の早期発生の兆候を探すことができる。
この研究は、2つの超低消費電力のSystem-on-Chipsを備えた新しい垂直統合ソリューションを提案する。
- 参考スコア(独自算出の注目度): 1.7945764007196348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smart farming and precision agriculture represent game-changer technologies for efficient and sustainable agribusiness. Miniaturized palm-sized drones can act as flexible smart sensors inspecting crops, looking for early signs of potential pest outbreaking. However, achieving such an ambitious goal requires hardware-software codesign to develop accurate deep learning (DL) detection models while keeping memory and computational needs under an ultra-tight budget, i.e., a few MB on-chip memory and a few 100s mW power envelope. This work presents a novel vertically integrated solution featuring two ultra-low power System-on-Chips (SoCs), i.e., the dual-core STM32H74 and a multi-core GWT GAP9, running two State-of-the-Art DL models for detecting the Popillia japonica bug. We fine-tune both models for our image-based detection task, quantize them in 8-bit integers, and deploy them on the two SoCs. On the STM32H74, we deploy a FOMO-MobileNetV2 model, achieving a mean average precision (mAP) of 0.66 and running at 16.1 frame/s within 498 mW. While on the GAP9 SoC, we deploy a more complex SSDLite-MobileNetV3, which scores an mAP of 0.79 and peaks at 6.8 frame/s within 33 mW. Compared to a top-notch RetinaNet-ResNet101-FPN full-precision baseline, which requires 14.9x more memory and 300x more operations per inference, our best model drops only 15\% in mAP, paving the way toward autonomous palm-sized drones capable of lightweight and precise pest detection.
- Abstract(参考訳): スマート農業と精密農業は、効率的で持続可能な農業のためのゲームチェンジャー技術である。
小型のパームサイズのドローンは、作物を検査する柔軟なスマートセンサーとして機能し、害虫の早期発生の兆候を探すことができる。
しかし、そのような野心的な目標を達成するためには、ハードウェア・ソフトウェア・コーデックが正確な深層学習(DL)検出モデルを開発する必要がある。
この研究は、2つの超低消費電力のSystem-on-Chips(SoCs)、すなわちデュアルコアのSTM32H74とマルチコアのGWT GAP9を備え、Popillia japonicaバグを検出するための2つのState-of-the-Art DLモデルを実行する。
イメージベース検出タスクのために両方のモデルを微調整し、8ビット整数で定量化し、2つのSoCにデプロイします。
STM32H74では,FOMO-MobileNetV2モデルをデプロイし,平均平均mAPを0.66mW,16.1fpsで498mWで動作させる。
GAP9 SoCでは、より複雑なSSDLite-MobileNetV3をデプロイします。
トップノートのRetinaNet-ResNet101-FPNのフル精度ベースラインは14.9倍のメモリと300倍のオペレーションを必要とするが、私たちの最良のモデルはmAPでわずか15倍の差しかなく、軽量で正確な害虫検出が可能な自律パームサイズのドローンへの道を歩んでいる。
関連論文リスト
- Towards Scalable Insect Monitoring: Ultra-Lightweight CNNs as On-Device Triggers for Insect Camera Traps [0.10713888959520207]
カメラトラップは、自動化されたスケーラブルな生物多様性監視を実現する手段として登場した。
カメラトラップをトリガーする受動赤外線(PIR)センサーは、昆虫のような小型で素早く動く外惑星を検出するには適していない。
本研究は、低消費電力ハードウェア上で動作する超軽量畳み込みニューラルネットワークであるPIRトリガの代替を提案する。
論文 参考訳(メタデータ) (2024-11-18T15:46:39Z) - Training on the Fly: On-device Self-supervised Learning aboard Nano-drones within 20 mW [52.280742520586756]
ナノドローンのような小さな機械学習(TinyML)を利用した小型サイバー物理システム(CPS)は、ますます魅力的な技術になりつつある。
単純な電子回路はこれらのCPSを安価にすることができるが、計算、メモリ、センサーの資源を著しく制限する。
本稿では,ナノドロンの限られた超低消費電力資源にのみ依存する,オンデバイスファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T13:11:36Z) - GAP9Shield: A 150GOPS AI-capable Ultra-low Power Module for Vision and Ranging Applications on Nano-drones [12.436348876429367]
GAP9Shieldは、GAP9を動力とするナノドロンのモジュールである。
このシステムには、高解像度撮像用の5MP OV5647カメラ、WiFi-BLE NINAモジュール、および5D VL53L1ベースのレンジングサブシステムが含まれる。
GAP9Shieldは、同じターゲットの最先端システムと比較して20%高いサンプルレート(RGB画像)を提供し、20%の重量削減を提供する。
論文 参考訳(メタデータ) (2024-06-27T11:41:39Z) - High-throughput Visual Nano-drone to Nano-drone Relative Localization using Onboard Fully Convolutional Networks [51.23613834703353]
相対的なドローンとドローンのローカライゼーションは、どんなSwarm操作でも基本的なビルディングブロックである。
我々は、新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
その結果,水平画像座標で32~47%,垂直画像座標で18~55%,実世界の30k画像のデータセットでR2乗改善が得られた。
論文 参考訳(メタデータ) (2024-02-21T12:34:31Z) - Efficient Deep Learning Models for Privacy-preserving People Counting on
Low-resolution Infrared Arrays [11.363207467478134]
赤外線(IR)アレイセンサーは低コストで省エネでプライバシー保護のソリューションを提供する。
これまでの研究は、ディープラーニング(DL)がこのタスクにおいて優れたパフォーマンスが得られることを示した。
商業用8x8アレイから収集したIR画像からなる新しいデータセット上で,6種類のDLアーキテクチャを比較した。
論文 参考訳(メタデータ) (2023-04-12T15:29:28Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - Deep Neural Network Architecture Search for Accurate Visual Pose
Estimation aboard Nano-UAVs [69.19616451596342]
小型無人航空機(UAV)は、新興かつトレンドのトピックである。
我々は、新しいニューラルネットワーク探索(NAS)技術を活用し、視覚的ポーズ推定タスクのために複数の畳み込みニューラルネットワーク(CNN)を自動的に識別する。
その結果,10Hz@10mWおよび50Hz@90mWの実時間オンボード推算速度を達成しつつ,フィールド内制御誤差を32%低減し,現状を改善できた。
論文 参考訳(メタデータ) (2023-03-03T14:02:09Z) - EATFormer: Improving Vision Transformer Inspired by Evolutionary Algorithm [111.17100512647619]
本稿では、実証された実用的な進化的アルゴリズム(EA)と類似したビジョントランスフォーマーの合理性を説明する。
本稿では,EA ベースのトランス (EAT) ブロックのみを含む新しいピラミッド EATFormer バックボーンを提案する。
画像分類,下流タスク,説明実験に関する大規模かつ定量的な実験は,我々のアプローチの有効性と優位性を示すものである。
論文 参考訳(メタデータ) (2022-06-19T04:49:35Z) - PP-PicoDet: A Better Real-Time Object Detector on Mobile Devices [13.62426382827205]
実時間物体検出器のPP-PicoDetファミリは,モバイルデバイスの物体検出において優れた性能を発揮する。
モデルは、他の一般的なモデルと比較して、精度とレイテンシのトレードオフを改善する。
論文 参考訳(メタデータ) (2021-11-01T12:53:17Z) - A Real-time Low-cost Artificial Intelligence System for Autonomous
Spraying in Palm Plantations [1.6799377888527687]
精密作物保護では、画像処理における(ターゲット指向)物体検出は、無人航空機(UAV、作物保護ドローン)を適切な場所にナビゲートし、農薬を適用するのに役立ちます。
本稿では,Ag-YOLO(Ag-YOLO)と呼ばれる軽深度ニューラルネットワーク(DNN)に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-06T15:05:14Z) - Robustifying the Deployment of tinyML Models for Autonomous
mini-vehicles [61.27933385742613]
本稿では,ループ内環境を含む自動運転ミニ車両を対象とした閉ループ学習フローを提案する。
我々は、小型CNNのファミリーを利用してミニ車両を制御し、コンピュータビジョンアルゴリズム、すなわち専門家を模倣してターゲット環境で学習する。
CNNのファミリを実行する場合、我々のソリューションはSTM32L4とk64f(Cortex-M4)の他の実装よりも優れており、レイテンシを13倍以上削減し、エネルギー消費を92%削減する。
論文 参考訳(メタデータ) (2020-07-01T07:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。