論文の概要: Maize Seedling Detection Dataset (MSDD): A Curated High-Resolution RGB Dataset for Seedling Maize Detection and Benchmarking with YOLOv9, YOLO11, YOLOv12 and Faster-RCNN
- arxiv url: http://arxiv.org/abs/2509.15181v1
- Date: Thu, 18 Sep 2025 17:41:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.366773
- Title: Maize Seedling Detection Dataset (MSDD): A Curated High-Resolution RGB Dataset for Seedling Maize Detection and Benchmarking with YOLOv9, YOLO11, YOLOv12 and Faster-RCNN
- Title(参考訳): Maize Sedling Detection Dataset (MSDD): YOLOv9, YOLO11, YOLOv12, Faster-RCNNを用いた高分解能RGBデータセット
- Authors: Dewi Endah Kharismawati, Toni Kazic,
- Abstract要約: スタンドカウントは、植物が発芽した数を決定し、再移植や入力の調整といったタイムリーな決定を導く。
実生苗数計測のための高品質な航空画像データセットであるMSDDを導入し,早稲作モニタリング,収量予測,現地管理に応用した。
MSDDには、様々な成長段階、植林設備、土壌タイプ、照明条件、カメラアングル、密度の3つのクラス・シングル、ダブル、トリプルの植物が含まれる。
- 参考スコア(独自算出の注目度): 0.28647133890966986
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate maize seedling detection is crucial for precision agriculture, yet curated datasets remain scarce. We introduce MSDD, a high-quality aerial image dataset for maize seedling stand counting, with applications in early-season crop monitoring, yield prediction, and in-field management. Stand counting determines how many plants germinated, guiding timely decisions such as replanting or adjusting inputs. Traditional methods are labor-intensive and error-prone, while computer vision enables efficient, accurate detection. MSDD contains three classes-single, double, and triple plants-capturing diverse growth stages, planting setups, soil types, lighting conditions, camera angles, and densities, ensuring robustness for real-world use. Benchmarking shows detection is most reliable during V4-V6 stages and under nadir views. Among tested models, YOLO11 is fastest, while YOLOv9 yields the highest accuracy for single plants. Single plant detection achieves precision up to 0.984 and recall up to 0.873, but detecting doubles and triples remains difficult due to rarity and irregular appearance, often from planting errors. Class imbalance further reduces accuracy in multi-plant detection. Despite these challenges, YOLO11 maintains efficient inference at 35 ms per image, with an additional 120 ms for saving outputs. MSDD establishes a strong foundation for developing models that enhance stand counting, optimize resource allocation, and support real-time decision-making. This dataset marks a step toward automating agricultural monitoring and advancing precision agriculture.
- Abstract(参考訳): 正確なトウモロコシの苗検出は、精密農業には不可欠であるが、キュレートされたデータセットは乏しい。
実生苗数計測のための高品質な航空画像データセットであるMSDDを導入し,早稲作モニタリング,収量予測,現地管理に応用した。
スタンドカウントは、植物が発芽した数を決定し、再移植や入力の調整といったタイムリーな決定を導く。
従来の手法は労働集約的でエラーを起こしやすいが、コンピュータビジョンは効率的で正確な検出を可能にする。
MSDDには、様々な成長段階、植林設備、土壌タイプ、照明条件、カメラアングル、密度の3つのクラス・シングル、ダブル、トリプルの植物が含まれる。
ベンチマークによると、検出はV4-V6ステージとnadirビュー下で最も信頼性が高い。
実験されたモデルの中では、YOLO11は最速であり、YOLOv9は単一の植物にとって最も正確である。
単一植物検出は0.984までの精度を達成し、0.873までリコールするが、希少性や不規則な外観のため、しばしば植樹ミスによってダブルスとトリプルスを検出することは困難である。
クラス不均衡は、マルチプラント検出の精度をさらに低下させる。
これらの課題にもかかわらず、YOLO11は画像当たり35msの効率的な推論を維持し、出力を節約するために120msを追加している。
MSDDは、スタンドカウントを強化し、リソース割り当てを最適化し、リアルタイムな意思決定をサポートするモデルを開発するための強力な基盤を確立します。
このデータセットは、農業モニタリングの自動化と精密農業の進歩に向けた一歩となる。
関連論文リスト
- YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception [58.06752127687312]
高精度で軽量な物体検出器YOLOv13を提案する。
ハイパーグラフに基づく適応相関強化(HyperACE)機構を提案する。
また,FullPAD(Full-Pipeline Aggregation-and-Distribution)パラダイムを提案する。
論文 参考訳(メタデータ) (2025-06-21T15:15:03Z) - WeedVision: Multi-Stage Growth and Classification of Weeds using DETR and RetinaNet for Precision Agriculture [0.0]
本研究は対象検出モデルを用いて174クラスにわたる16種の雑草を同定・分類する。
203,567枚の画像からなる頑健なデータセットを開発した。
RetinaNetは優れた性能を示し、トレーニングセットで0.907、テストセットで0.904の平均平均精度(mAP)を達成した。
論文 参考訳(メタデータ) (2025-02-16T20:49:22Z) - Assessing the Capability of YOLO- and Transformer-based Object Detectors for Real-time Weed Detection [0.0]
YOLOv8, YOLOv9, YOLOv10, RT-DETRのすべての利用可能なモデルは、実地状況の画像を用いて訓練され、評価される。
その結果、評価された指標では、全てのモデルが等しくよく機能するのに対し、YOLOv9モデルは強いリコールスコアの点で際立っていることがわかった。
RT-DETRモデル、特にRT-DETR-lは、データセット1では82.44 %、データセット2では81.46 %の精度で優れている。
論文 参考訳(メタデータ) (2025-01-29T02:39:57Z) - Strawberry detection and counting based on YOLOv7 pruning and information based tracking algorithm [2.8246025005347875]
本研究は,イチゴの花,未熟果実,成熟果実の検出を迅速かつ正確に行うことができる深層学習モデル(YOLOv7とその変種)の検出ヘッドの最適刈り取り法を提案した。
特にPruning-YOLOv7-tiny with detection head 3とPruning-YOLOv7-tiny with head 2 and 3は最高の推論速度(毎秒163.9フレーム)と検出精度(89.1%)を達成した。
論文 参考訳(メタデータ) (2024-07-17T14:41:57Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - Generative models-based data labeling for deep networks regression:
application to seed maturity estimation from UAV multispectral images [3.6868861317674524]
種子の成熟度モニタリングは、気候変動とより制限的な慣行による農業における課題の増加である。
従来の手法は、フィールドでの限られたサンプリングと実験室での分析に基づいている。
マルチスペクトルUAV画像を用いたパセリ種子の成熟度推定手法の提案と,自動ラベリングのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-09T09:06:51Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。