論文の概要: An Efficient Ground-aerial Transportation System for Pest Control Enabled by AI-based Autonomous Nano-UAVs
- arxiv url: http://arxiv.org/abs/2502.14455v1
- Date: Thu, 20 Feb 2025 11:14:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 17:44:01.627132
- Title: An Efficient Ground-aerial Transportation System for Pest Control Enabled by AI-based Autonomous Nano-UAVs
- Title(参考訳): AIに基づく自律型ナノUAVによる害虫防除のための効率的な地上航空輸送システム
- Authors: Luca Crupi, Luca Butera, Alberto Ferrante, Alessandro Giusti, Daniele Palossi,
- Abstract要約: 我々は、害虫検出のための小さな画像ベースの畳み込みニューラルネットワーク(CNN)を設計し、微調整し、最適化する。
我々のCNNは6.8フレーム/秒でリアルタイムに動作し、クレイジーフリーナノUAVに搭載されたGWT GAP9 System-on-Chip上で33mWが必要になります。
このシナリオでは、検査と治療の両方を行う従来の単座車両と比較して、効率的な輸送システムは最大20時間作業時間を節約できる。
- 参考スコア(独自算出の注目度): 45.07031440932014
- License:
- Abstract: Efficient crop production requires early detection of pest outbreaks and timely treatments; we consider a solution based on a fleet of multiple autonomous miniaturized unmanned aerial vehicles (nano-UAVs) to visually detect pests and a single slower heavy vehicle that visits the detected outbreaks to deliver treatments. To cope with the extreme limitations aboard nano-UAVs, e.g., low-resolution sensors and sub-100 mW computational power budget, we design, fine-tune, and optimize a tiny image-based convolutional neural network (CNN) for pest detection. Despite the small size of our CNN (i.e., 0.58 GOps/inference), on our dataset, it scores a mean average precision (mAP) of 0.79 in detecting harmful bugs, i.e., 14% lower mAP but 32x fewer operations than the best-performing CNN in the literature. Our CNN runs in real-time at 6.8 frame/s, requiring 33 mW on a GWT GAP9 System-on-Chip aboard a Crazyflie nano-UAV. Then, to cope with in-field unexpected obstacles, we leverage a global+local path planner based on the A* algorithm. The global path planner determines the best route for the nano-UAV to sweep the entire area, while the local one runs up to 50 Hz aboard our nano-UAV and prevents collision by adjusting the short-distance path. Finally, we demonstrate with in-simulator experiments that once a 25 nano-UAVs fleet has combed a 200x200 m vineyard, collected information can be used to plan the best path for the tractor, visiting all and only required hotspots. In this scenario, our efficient transportation system, compared to a traditional single-ground vehicle performing both inspection and treatment, can save up to 20 h working time.
- Abstract(参考訳): 効率的な作物生産には、害虫の発生とタイムリーな治療を早期に検出する必要がある。我々は、複数の自律小型無人航空機(nano-UAV)の群をベースとして、害虫を視覚的に検出するソリューションと、検出されたアウトブレイクを訪れて治療を行う単一の遅い重車両を考える。
ナノUAV、低分解能センサー、100mW未満の計算パワー予算といった極端な限界に対応するため、我々は、害虫検出のための小さな画像ベースの畳み込みニューラルネットワーク(CNN)を設計、微調整、最適化する。
私たちのデータセットでは、CNNの小さなサイズ(すなわち、0.58 GOps/推論)にもかかわらず、有害なバグを検出する平均的精度(mAP)は0.79である。
我々のCNNは6.8フレーム/秒でリアルタイムに動作し、クレイジーフリーナノUAVに搭載されたGWT GAP9 System-on-Chip上で33mWが必要になります。
そこで我々は,A*アルゴリズムに基づくグローバル・ローカル・パス・プランナを活用して,フィールド内予期しない障害に対処する。
グローバルパスプランナーは、ナノUAVが全領域を網羅する最良の経路を決定する一方、ローカルパスは私たちのナノUAV上で最大50Hzの速度で走行し、短距離経路を調整することで衝突を防止する。
最後に,25基のナノUAVが200×200mのブドウ畑を埋め尽くすと,トラクタの最良の経路を計画し,必要なホットスポットを全て訪問し,収集した情報を利用できることをシミュレーション実験で実証した。
このシナリオでは、検査と治療の両方を行う従来の単座車両と比較して、効率的な輸送システムは最大20時間作業時間を節約できる。
関連論文リスト
- Training on the Fly: On-device Self-supervised Learning aboard Nano-drones within 20 mW [52.280742520586756]
ナノドローンのような小さな機械学習(TinyML)を利用した小型サイバー物理システム(CPS)は、ますます魅力的な技術になりつつある。
単純な電子回路はこれらのCPSを安価にすることができるが、計算、メモリ、センサーの資源を著しく制限する。
本稿では,ナノドロンの限られた超低消費電力資源にのみ依存する,オンデバイスファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T13:11:36Z) - A Deep Learning-based Pest Insect Monitoring System for Ultra-low Power Pocket-sized Drones [1.7945764007196348]
スマート農業と精密農業は、効率的で持続可能な農業のためのゲームチェンジャー技術である。
小型のパームサイズのドローンは、作物を検査する柔軟なスマートセンサーとして機能し、害虫の早期発生の兆候を探すことができる。
この研究は、2つの超低消費電力のSystem-on-Chipsを備えた新しい垂直統合ソリューションを提案する。
論文 参考訳(メタデータ) (2024-04-02T10:39:54Z) - High-throughput Visual Nano-drone to Nano-drone Relative Localization using Onboard Fully Convolutional Networks [51.23613834703353]
相対的なドローンとドローンのローカライゼーションは、どんなSwarm操作でも基本的なビルディングブロックである。
我々は、新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
その結果,水平画像座標で32~47%,垂直画像座標で18~55%,実世界の30k画像のデータセットでR2乗改善が得られた。
論文 参考訳(メタデータ) (2024-02-21T12:34:31Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - Deep Neural Network Architecture Search for Accurate Visual Pose
Estimation aboard Nano-UAVs [69.19616451596342]
小型無人航空機(UAV)は、新興かつトレンドのトピックである。
我々は、新しいニューラルネットワーク探索(NAS)技術を活用し、視覚的ポーズ推定タスクのために複数の畳み込みニューラルネットワーク(CNN)を自動的に識別する。
その結果,10Hz@10mWおよび50Hz@90mWの実時間オンボード推算速度を達成しつつ,フィールド内制御誤差を32%低減し,現状を改善できた。
論文 参考訳(メタデータ) (2023-03-03T14:02:09Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - A Real-time Low-cost Artificial Intelligence System for Autonomous
Spraying in Palm Plantations [1.6799377888527687]
精密作物保護では、画像処理における(ターゲット指向)物体検出は、無人航空機(UAV、作物保護ドローン)を適切な場所にナビゲートし、農薬を適用するのに役立ちます。
本稿では,Ag-YOLO(Ag-YOLO)と呼ばれる軽深度ニューラルネットワーク(DNN)に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-06T15:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。