論文の概要: Robotic System with AI for Real Time Weed Detection, Canopy Aware Spraying, and Droplet Pattern Evaluation
- arxiv url: http://arxiv.org/abs/2507.05432v1
- Date: Mon, 07 Jul 2025 19:27:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.321607
- Title: Robotic System with AI for Real Time Weed Detection, Canopy Aware Spraying, and Droplet Pattern Evaluation
- Title(参考訳): リアルタイム雑草検出, キャノピーアウェア溶射, および液滴パターン評価のためのAIを用いたロボットシステム
- Authors: Inayat Rasool, Pappu Kumar Yadav, Amee Parmar, Hasan Mirzakhaninafchi, Rikesh Budhathoki, Zain Ul Abideen Usmani, Supriya Paudel, Ivan Perez Olivera, Eric Jone,
- Abstract要約: 我々は,雑草の存在を検知し,天蓋の大きさを推定し,ノズルのアクティベーションをリアルタイムで動的に調整できる,視覚誘導型AI駆動可変速度噴霧装置を開発した。
このシステムは軽量のYOLO11nとYOLO11nセグ深層学習モデルを統合し、NVIDIA Jetson Orin Nano上に展開して推論を行う。
今後の研究は、サウスダコタ州で一般的な雑草3種を含む検出能力を拡大することに焦点を当てる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uniform and excessive herbicide application in modern agriculture contributes to increased input costs, environmental pollution, and the emergence of herbicide resistant weeds. To address these challenges, we developed a vision guided, AI-driven variable rate sprayer system capable of detecting weed presence, estimating canopy size, and dynamically adjusting nozzle activation in real time. The system integrates lightweight YOLO11n and YOLO11n-seg deep learning models, deployed on an NVIDIA Jetson Orin Nano for onboard inference, and uses an Arduino Uno-based relay interface to control solenoid actuated nozzles based on canopy segmentation results. Indoor trials were conducted using 15 potted Hibiscus rosa sinensis plants of varying canopy sizes to simulate a range of weed patch scenarios. The YOLO11n model achieved a mean average precision (mAP@50) of 0.98, with a precision of 0.99 and a recall close to 1.0. The YOLO11n-seg segmentation model achieved a mAP@50 of 0.48, precision of 0.55, and recall of 0.52. System performance was validated using water sensitive paper, which showed an average spray coverage of 24.22% in zones where canopy was present. An upward trend in mean spray coverage from 16.22% for small canopies to 21.46% and 21.65% for medium and large canopies, respectively, demonstrated the system's capability to adjust spray output based on canopy size in real time. These results highlight the potential of combining real time deep learning with low-cost embedded hardware for selective herbicide application. Future work will focus on expanding the detection capabilities to include three common weed species in South Dakota: water hemp (Amaranthus tuberculatus), kochia (Bassia scoparia), and foxtail (Setaria spp.), followed by further validation in both indoor and field trials within soybean and corn production systems.
- Abstract(参考訳): 現代の農業における一様で過剰な除草剤の応用は、入力コストの増加、環境汚染、除草剤耐性雑草の出現に寄与する。
これらの課題に対処するため、我々は、雑草の存在を検知し、天蓋の大きさを推定し、ノズルのアクティベーションをリアルタイムで動的に調整できる視覚誘導型AI駆動可変速度噴霧装置を開発した。
このシステムは軽量のYOLO11nとYOLO11n-segディープラーニングモデルを統合し、NVIDIA Jetson Orin Nano上にオンボード推論用にデプロイし、Arduino Unoベースのリレーインタフェースを使用して、キャノピーセグメンテーション結果に基づいてソレノイド作動ノズルを制御する。
異なるキャノピーサイズのヒビスカス・ロサ・シネンシス15種を用いて室内試験を行い,様々な雑草のパッチシナリオをシミュレートした。
YOLO11nモデルは平均平均精度(mAP@50)が0.98で、精度は0.99、リコールは1.0だった。
YOLO11nセグセグモデルのmAP@50は0.48、精度は0.55、リコールは0.52である。
水に敏感な紙を用いてシステム性能を検証したところ、キャノピーが存在する地域では平均的なスプレーカバレッジが24.22%であった。
小型キャノピーの16.22%から中型キャノピーの21.46%、大型キャノピーの21.65%までの上昇傾向は、キャノピーサイズに基づいたスプレー出力をリアルタイムで調整するシステムの能力を実証した。
これらの結果は, リアルタイム深層学習と低コストな組込みハードウェアを組み合わせることで, 選択的除草剤の応用の可能性を強調した。
今後の研究は、サウスダコタ州で一般的な雑草であるアマランチュウ(Amaranthus tuberculatus)、コチア(Bassia scoparia)、キノコ(Setaria spp.)の3種を含む、検出能力を拡大することに焦点を当て、続いて大豆とトウモロコシの生産システムにおける屋内および野外試験のさらなる検証を行う予定である。
関連論文リスト
- Exploring Model Quantization in GenAI-based Image Inpainting and Detection of Arable Plants [0.0]
安定ディフュージョンベースのインペインティングを利用して、10%のインクリメントでトレーニングデータを段階的に増加させ、最大200%まで増やすフレームワークを提案する。
本手法は,mAP50測定値を用いて,最先端物体検出モデルであるYOLO11(l)とRT-DETR(l)の2つを用いて評価を行った。
Jetson Orin Nano上での下流モデルの展開は、リソース制約のある環境での我々のフレームワークの実用可能性を示す。
論文 参考訳(メタデータ) (2025-03-04T09:05:01Z) - WeedVision: Multi-Stage Growth and Classification of Weeds using DETR and RetinaNet for Precision Agriculture [0.0]
本研究は対象検出モデルを用いて174クラスにわたる16種の雑草を同定・分類する。
203,567枚の画像からなる頑健なデータセットを開発した。
RetinaNetは優れた性能を示し、トレーニングセットで0.907、テストセットで0.904の平均平均精度(mAP)を達成した。
論文 参考訳(メタデータ) (2025-02-16T20:49:22Z) - SCott: Accelerating Diffusion Models with Stochastic Consistency Distillation [74.32186107058382]
本稿では,テキスト・画像の高速生成を実現するために,SCott(Consistency Distillation)を提案する。
SCottは、訓練済みの教師モデルの通常の微分方程式解法に基づくサンプリングプロセスを学生に蒸留する。
安定拡散V1.5教師によるMSCOCO-2017 5Kデータセットでは、SCottは2ステップのサンプリングステップを持つ21.9のFIDを達成し、1ステップのInstaFlow (23.4)と4ステップのUFOGen (22.1)を上回ります。
論文 参考訳(メタデータ) (2024-03-03T13:08:32Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - Computer Vision for Volunteer Cotton Detection in a Corn Field with UAS
Remote Sensing Imagery and Spot Spray Applications [5.293431074053198]
綿花畑におけるイノシシ (Anthonomus grandis L.) 害虫の再寄生を抑えるため, 現在, ボランティア・綿花検出の実践は, 畑の端で手動のフィールド・スカウトを伴っている。
タッセリング(VT)成長期に成長するVC植物の検出と位置決定のために, YOLOv5mをラジオメトリックおよびガンマ補正低分解能(1.2メガピクセル)マルチスペクトル画像に適用した。
論文 参考訳(メタデータ) (2022-07-15T08:13:20Z) - Deep-CNN based Robotic Multi-Class Under-Canopy Weed Control in
Precision Farming [2.6085535710135654]
リアルタイム多クラス雑草識別は雑草の種特異的な処理を可能にし、除草剤の使用量を著しく減少させる。
本稿では,5つのベンチマークCNNモデルを用いた分類性能のベースラインを提案する。
我々はMobileNetV2を、リアルタイム雑草検出のためのコンパクトな自律ロボットTextitSAMBotにデプロイする。
論文 参考訳(メタデータ) (2021-12-28T03:51:55Z) - A Multi-Stage model based on YOLOv3 for defect detection in PV panels
based on IR and Visible Imaging by Unmanned Aerial Vehicle [65.99880594435643]
本研究では,無人航空機が捉えた空中画像のパネル欠陥を検出するための新しいモデルを提案する。
このモデルは、パネルと欠陥の検出を組み合わせることで、精度を向上する。
提案モデルはイタリア南部の2つの大きなPVプラントで検証されている。
論文 参考訳(メタデータ) (2021-11-23T08:04:32Z) - Performance Evaluation of Deep Transfer Learning on Multiclass
Identification of Common Weed Species in Cotton Production Systems [3.427330019009861]
本稿では,アメリカ南部の綿花生産システムに特有の雑草を同定するために,DTL(Deep Transfer Learning)を総合的に評価する。
自然光条件および雑草生育段階の異なる15種類の雑草群5187色画像からなる雑草識別用データセットを作成した。
DTLはF1スコアの高い分類精度を95%以上達成し、モデル間でのトレーニング時間(2.5時間未満)を合理的に短縮する必要があった。
論文 参考訳(メタデータ) (2021-10-11T01:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。