論文の概要: A Comparative Benchmark of Real-time Detectors for Blueberry Detection towards Precision Orchard Management
- arxiv url: http://arxiv.org/abs/2509.20580v2
- Date: Sat, 04 Oct 2025 18:40:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 14:28:10.768647
- Title: A Comparative Benchmark of Real-time Detectors for Blueberry Detection towards Precision Orchard Management
- Title(参考訳): 精密果樹管理に向けたブルーベリー検出用リアルタイム検出器の比較ベンチマーク
- Authors: Xinyang Mu, Yuzhen Lu, Boyang Deng,
- Abstract要約: 本研究では,先進的リアルタイム物体検出器の比較ベンチマーク解析を行った。
このデータセットは、2022-2023シーズンにスマートフォンで収集された671枚の天蓋画像からなる。
YOLOモデルのうち、YOLOv12mはmAP@50の93.3%で最高の精度を達成した。
- 参考スコア(独自算出の注目度): 2.667064587590596
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Blueberry detection in natural environments remains challenging due to variable lighting, occlusions, and motion blur due to environmental factors and imaging devices. Deep learning-based object detectors promise to address these challenges, but they demand a large-scale, diverse dataset that captures the real-world complexities. Moreover, deploying these models in practical scenarios often requires the right accuracy/speed/memory trade-off in model selection. This study presents a novel comparative benchmark analysis of advanced real-time object detectors, including YOLO (You Only Look Once) (v8-v12) and RT-DETR (Real-Time Detection Transformers) (v1-v2) families, consisting of 36 model variants, evaluated on a newly curated dataset for blueberry detection. This dataset comprises 661 canopy images collected with smartphones during the 2022-2023 seasons, consisting of 85,879 labelled instances (including 36,256 ripe and 49,623 unripe blueberries) across a wide range of lighting conditions, occlusions, and fruit maturity stages. Among the YOLO models, YOLOv12m achieved the best accuracy with a mAP@50 of 93.3%, while RT-DETRv2-X obtained a mAP@50 of 93.6%, the highest among all the RT-DETR variants. The inference time varied with the model scale and complexity, and the mid-sized models appeared to offer a good accuracy-speed balance. To further enhance detection performance, all the models were fine-tuned using Unbiased Mean Teacher-based semi-supervised learning (SSL) on a separate set of 1,035 unlabeled images acquired by a ground-based machine vision platform in 2024. This resulted in accuracy gains ranging from -1.4% to 2.9%, with RT-DETR-v2-X achieving the best mAP@50 of 94.8%. More in-depth research into SSL is needed to better leverage cross-domain unlabeled data. Both the dataset and software programs of this study are made publicly available to support further research.
- Abstract(参考訳): 自然環境におけるブルーベリーの検出は、様々な照明、閉塞、環境要因や撮像装置による運動のぼやけにより、依然として困難である。
ディープラーニングに基づくオブジェクト検出は、これらの課題に対処することを約束するが、それらは、現実世界の複雑さをキャプチャする大規模で多様なデータセットを必要とする。
さらに、これらのモデルを現実的なシナリオにデプロイするには、モデル選択において適切な精度/速度/メモリのトレードオフが必要になることが多い。
本研究では,36種類のモデル変異体からなる YOLO (You Only Look Once) (v8-v12) やRT-DETR (real-Time Detection Transformers) (v1-v2) ファミリーを含む,先進的リアルタイム物体検出装置の比較ベンチマーク解析を行い,ブルーベリー検出のための新たにキュレートされたデータセットで評価した。
このデータセットは、2022-2023シーズンにスマートフォンで収集された661枚の天蓋画像で構成され、幅広い照明条件、閉塞、果実成熟段階にわたって85,879個のラベル付きインスタンス(36,256リピートおよび49,623個の未熟ブルーベリーを含む)で構成されている。
YOLOモデルのうち、YOLOv12mはmAP@50が93.3%、RT-DETRv2-XはmAP@50が93.6%であり、RT-DETRの派生型の中で最も高い。
推定時間はモデルスケールと複雑さによって変化し、中型モデルでは精度と速度のバランスが良好であった。
検出性能をさらに向上するため、2024年に地上ベースのマシンビジョンプラットフォームによって取得された1,035枚の未ラベル画像に対して、Unbiased Mean Teacherベースの半教師付き学習(SSL)を使用して、すべてのモデルを微調整した。
その結果、精度は-1.4%から2.9%に向上し、RT-DETR-v2-Xは94.8%で最高のmAP@50を達成した。
SSLに関する詳細な研究は、クロスドメインの未ラベルデータをより活用するために必要である。
この研究のデータセットとソフトウェアプログラムはどちらも、さらなる研究を支援するために公開されています。
関連論文リスト
- Detection of On-Ground Chestnuts Using Artificial Intelligence Toward Automated Picking [0.09176056742068812]
伝統的な機械化された栗の収穫は、小さな生産者にとっては高価すぎる。
オーチャードフロアにおけるクリの正確な検出は、低コストで視覚誘導型自動収穫技術の開発に不可欠である。
本研究は,6524個の注釈付き栗を含む果樹園床の栗の319枚の画像を収集した。
論文 参考訳(メタデータ) (2026-02-15T13:28:23Z) - DeepRed: an architecture for redshift estimation [42.231769414215435]
深層学習パイプラインは、銀河、重力レンズ、超新星の画像から、どのように赤方偏移を推定できるかを示す。
提案手法は,全データセットの最先端結果を実現する。
これらの結果は、大規模調査において、ディープラーニングは、レッドシフト推定のためのスケーラブルで堅牢で解釈可能なソリューションであることを示している。
論文 参考訳(メタデータ) (2026-02-11T19:00:10Z) - A Domain-Adapted Lightweight Ensemble for Resource-Efficient Few-Shot Plant Disease Classification [0.0]
ドメイン適応型MobileNetV2モデルとMobileNetV3モデルを組み合わせた数ショットの学習手法を提案する。
分類タスクには、注意機構を付加したBi-LSTM分類器を通す。
1発から15発のパフォーマンスを継続的に改善し、15発で98.23+-0.33%に達した。
また、以前のSOTAの精度も96.4%向上し、15ショットの学習で99.72%を記録した。
論文 参考訳(メタデータ) (2025-12-15T15:17:29Z) - FireSentry: A Multi-Modal Spatio-temporal Benchmark Dataset for Fine-Grained Wildfire Spread Forecasting [41.82363110982653]
本稿では,サブメーター空間とサブ秒時間分解能を特徴とする地域規模のマルチモーダル山火事データセットFireSentryを提案する。
FireSentryは、可視および赤外線のビデオストリーム、その場での環境測定、手動で検証されたファイアマスクを提供する。
FireSentry上に構築され、物理に基づく、データ駆動、生成モデルを含む包括的なベンチマークを構築します。
論文 参考訳(メタデータ) (2025-12-03T02:02:47Z) - OmniGround: A Comprehensive Spatio-Temporal Grounding Benchmark for Real-World Complex Scenarios [39.58602686069029]
OmniGroundは、81のカテゴリにまたがる3,475の動画と複雑な現実世界のクエリを備えた総合的なベンチマークである。
また、4つの相補的な次元にわたるデータセット品質を定量化するシステム評価フレームワークであるDeepSTGについても紹介する。
実験では、PG-TAFはm_tIoUとm_vIoUを25.6%、35.6%改善し、4つのベンチマークで一貫した利得を得た。
論文 参考訳(メタデータ) (2025-11-21T04:23:04Z) - Maize Seedling Detection Dataset (MSDD): A Curated High-Resolution RGB Dataset for Seedling Maize Detection and Benchmarking with YOLOv9, YOLO11, YOLOv12 and Faster-RCNN [0.28647133890966986]
スタンドカウントは、植物が発芽した数を決定し、再移植や入力の調整といったタイムリーな決定を導く。
実生苗数計測のための高品質な航空画像データセットであるMSDDを導入し,早稲作モニタリング,収量予測,現地管理に応用した。
MSDDには、様々な成長段階、植林設備、土壌タイプ、照明条件、カメラアングル、密度の3つのクラス・シングル、ダブル、トリプルの植物が含まれる。
論文 参考訳(メタデータ) (2025-09-18T17:41:59Z) - YOLO for Knowledge Extraction from Vehicle Images: A Baseline Study [0.20482269513546458]
本研究は, YOLO-v11, YOLO-World, YOLO-classの3つの最先端ディープラーニング手法の有効性を評価する。
このデータセットは、NSW Police Highway Patrol Vehiclesによって、困難かつ制約のない条件下で収集された。
このような複雑な実世界のデータセットで使用可能なモデルを得るためには、MVIを使う必要があると結論付けられた。
論文 参考訳(メタデータ) (2025-07-25T05:31:21Z) - BOP Challenge 2024 on Model-Based and Model-Free 6D Object Pose Estimation [55.13521733366838]
一連のパブリックコンペティションの第6回は、6Dオブジェクトでアートの状態をキャプチャするために組織された。
2024年、我々は3Dオブジェクトモデルが利用できず、提供された参照ビデオからのみオブジェクトをオンボードする必要がある新しいモデルフリータスクを導入した。
我々は、テスト画像で見える物体の同一性が入力として提供されない、より実用的な6Dオブジェクト検出タスクを定義した。
論文 参考訳(メタデータ) (2025-04-03T17:55:19Z) - Assessing the Capability of YOLO- and Transformer-based Object Detectors for Real-time Weed Detection [0.0]
YOLOv8, YOLOv9, YOLOv10, RT-DETRのすべての利用可能なモデルは、実地状況の画像を用いて訓練され、評価される。
その結果、評価された指標では、全てのモデルが等しくよく機能するのに対し、YOLOv9モデルは強いリコールスコアの点で際立っていることがわかった。
RT-DETRモデル、特にRT-DETR-lは、データセット1では82.44 %、データセット2では81.46 %の精度で優れている。
論文 参考訳(メタデータ) (2025-01-29T02:39:57Z) - A Novel Adaptive Fine-Tuning Algorithm for Multimodal Models: Self-Optimizing Classification and Selection of High-Quality Datasets in Remote Sensing [46.603157010223505]
マルチモーダル大モデルに対する適応的な微調整アルゴリズムを提案する。
我々は、GeoChatマルチモーダルリモートセンシングデータセットの3分の1を使用して、2台の3090 GPU上でモデルをトレーニングする。
このモデルはUCMercedおよびAID評価データセットで89.86と77.19のスコアを得た。
論文 参考訳(メタデータ) (2024-09-20T09:19:46Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - DeepSeaNet: Improving Underwater Object Detection using EfficientDet [0.0]
このプロジェクトでは、注釈付き水中データセット上で様々な物体検出モデルを実装し、評価する。
このデータセットは、Limfjorden水中で捕獲された魚、カニ、ヒトデ、その他の水生動物の注釈画像からなる。
I compare the results of YOLOv3 (31.10% mean Average Precision (mAP)), YOLOv4 (83.72% mAP), YOLOv5 (97.6%), YOLOv8 (98.20%), EfficientDet (98.56% mAP) and Detectron2 (95.20% mAP) on the same dataset。
論文 参考訳(メタデータ) (2023-05-26T13:41:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。