論文の概要: Assessing the Capability of YOLO- and Transformer-based Object Detectors for Real-time Weed Detection
- arxiv url: http://arxiv.org/abs/2501.17387v1
- Date: Wed, 29 Jan 2025 02:39:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:54:01.517734
- Title: Assessing the Capability of YOLO- and Transformer-based Object Detectors for Real-time Weed Detection
- Title(参考訳): リアルタイム雑草検出のためのYOLOおよびトランスフォーマーを用いたオブジェクト検出機能の評価
- Authors: Alicia Allmendinger, Ahmet Oğuz Saltık, Gerassimos G. Peteinatos, Anthony Stein, Roland Gerhards,
- Abstract要約: 散布散布は、農作物で使用される農薬、特に除草剤の量を減らすための効率的で持続可能な方法である。
リアルタイムアプリケーションの適合性を評価するため,現在最先端のオブジェクト検出モデルを比較した。
YOLOv8, YOLOv9, YOLOv10, RT-DETRのすべての利用可能なモデルは、実地状況の画像を用いて訓練され、評価される。
その結果、評価された指標において全てのモデルが同等に機能する一方で、YOLOv9モデル、特にYOLOv9sとYOLOv9eは、その点において際立っていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Spot spraying represents an efficient and sustainable method for reducing the amount of pesticides, particularly herbicides, used in agricultural fields. To achieve this, it is of utmost importance to reliably differentiate between crops and weeds, and even between individual weed species in situ and under real-time conditions. To assess suitability for real-time application, different object detection models that are currently state-of-the-art are compared. All available models of YOLOv8, YOLOv9, YOLOv10, and RT-DETR are trained and evaluated with images from a real field situation. The images are separated into two distinct datasets: In the initial data set, each species of plants is trained individually; in the subsequent dataset, a distinction is made between monocotyledonous weeds, dicotyledonous weeds, and three chosen crops. The results demonstrate that while all models perform equally well in the metrics evaluated, the YOLOv9 models, particularly the YOLOv9s and YOLOv9e, stand out in terms of their strong recall scores (66.58 \% and 72.36 \%), as well as mAP50 (73.52 \% and 79.86 \%), and mAP50-95 (43.82 \% and 47.00 \%) in dataset 2. However, the RT-DETR models, especially RT-DETR-l, excel in precision with reaching 82.44 \% on dataset 1 and 81.46 \% in dataset 2, making them particularly suitable for scenarios where minimizing false positives is critical. In particular, the smallest variants of the YOLO models (YOLOv8n, YOLOv9t, and YOLOv10n) achieve substantially faster inference times down to 7.58 ms for dataset 2 on the NVIDIA GeForce RTX 4090 GPU for analyzing one frame, while maintaining competitive accuracy, highlighting their potential for deployment in resource-constrained embedded computing devices as typically used in productive setups.
- Abstract(参考訳): 散布散布は、農作物で使用される農薬、特に除草剤の量を減らすための効率的で持続可能な方法である。
これを実現するためには、作物と雑草を確実に区別することが最重要であり、また、実地およびリアルタイムの条件下では、個々の雑草種の間でさえも確実に区別することが重要である。
リアルタイムアプリケーションの適合性を評価するため,現在最先端のオブジェクト検出モデルを比較した。
YOLOv8, YOLOv9, YOLOv10, RT-DETRのすべての利用可能なモデルは、実地状況の画像を用いて訓練され、評価される。
最初のデータセットでは、各種の植物を個別に訓練し、その後のデータセットでは、単子葉雑草、二子葉雑草、および3つの選択された作物を区別する。
結果は、すべてのモデルが評価された指標において同等に機能する一方で、YOLOv9モデル、特にYOLOv9sとYOLOv9eは、データセット2におけるmAP50(73.52 \%と79.86 \%)とmAP50-95(43.82 \%と47.00 \%)と同様に、強いリコールスコア(66.58 \%と72.36 \%)で際立っていることを示している。
しかし、RT-DETRモデル、特にRT-DETR-lは、データセット1で82.44 \%、データセット2で81.46 \%に達する精度で優れているため、偽陽性を最小化するシナリオに特に適している。
特に、YOLOモデル(YOLOv8n, YOLOv9t, YOLOv10n)の最小変種は、1フレームを解析するためにNVIDIA GeForce RTX 4090 GPU上でデータセット2の7.58msまで大幅に高速な推論時間を実現し、競合精度を維持しながら、通常生産的なセットアップで使用されるリソース制約の組込みコンピューティングデバイスへの展開の可能性を強調している。
関連論文リスト
- Evaluating the Evolution of YOLO (You Only Look Once) Models: A Comprehensive Benchmark Study of YOLO11 and Its Predecessors [0.0]
本研究では,YOLOv3から最新のYOLO11まで,YOLO(You Only Look Once)アルゴリズムのベンチマーク解析を行った。
トラフィックシグネチャ(さまざまなオブジェクトサイズを持つ)、アフリカ野生生物(多彩なアスペクト比と画像当たりのオブジェクトの少なくとも1つのインスタンス)、および船と船舶(単一のクラスの小さなオブジェクトを持つ)の3つの多様なデータセットでパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-10-31T20:45:00Z) - Performance Evaluation of YOLOv8 Model Configurations, for Instance Segmentation of Strawberry Fruit Development Stages in an Open Field Environment [0.0]
本研究では, オープンフィールド環境下でイチゴを熟成・未熟成段階に分割するためのYOLOv8モデル構成の性能評価を行った。
YOLOv8nモデルは、平均平均精度 (mAP) が80.9%と優れたセグメンテーション精度を示し、他のYOLOv8構成よりも優れていた。
論文 参考訳(メタデータ) (2024-08-11T00:33:45Z) - Quantizing YOLOv7: A Comprehensive Study [0.0]
本稿では,最先端のYOLOv7モデルの事前学習重みに対する様々な量子化スキームの有効性について検討する。
その結果、4ビット量子化と異なる粒度の組合せを組み合わせることで、均一な量子化と非一様量子化のための3.92倍と3.86倍のメモリ節約が得られることがわかった。
論文 参考訳(メタデータ) (2024-07-06T03:23:04Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Investigating YOLO Models Towards Outdoor Obstacle Detection For
Visually Impaired People [3.4628430044380973]
7種類のYOLOオブジェクト検出モデルが実装された。
YOLOv8は最高のモデルであることが判明し、その精度は80ドルに達し、よく知られたObstacleデータセットでは68.2%だった。
YOLO-NASは障害物検出作業に最適であることがわかった。
論文 参考訳(メタデータ) (2023-12-10T13:16:22Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - DeepSeaNet: Improving Underwater Object Detection using EfficientDet [0.0]
このプロジェクトでは、注釈付き水中データセット上で様々な物体検出モデルを実装し、評価する。
このデータセットは、Limfjorden水中で捕獲された魚、カニ、ヒトデ、その他の水生動物の注釈画像からなる。
I compare the results of YOLOv3 (31.10% mean Average Precision (mAP)), YOLOv4 (83.72% mAP), YOLOv5 (97.6%), YOLOv8 (98.20%), EfficientDet (98.56% mAP) and Detectron2 (95.20% mAP) on the same dataset。
論文 参考訳(メタデータ) (2023-05-26T13:41:35Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。