論文の概要: BloomNet: Exploring Single vs. Multiple Object Annotation for Flower Recognition Using YOLO Variants
- arxiv url: http://arxiv.org/abs/2602.18585v1
- Date: Fri, 20 Feb 2026 19:47:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.178096
- Title: BloomNet: Exploring Single vs. Multiple Object Annotation for Flower Recognition Using YOLO Variants
- Title(参考訳): BloomNet: YOLO変数を用いた花認識のための単対複数オブジェクトアノテーションの探索
- Authors: Safwat Nusrat, Prithwiraj Bhattacharjee,
- Abstract要約: 本稿では, YOLOv5s, YOLOv8n/s/m, YOLOv12nなどのYOLOアーキテクチャを2つのアノテーション条件下でのオブジェクト検出のためにベンチマークする。
6つの異なる花種の2,816枚の高解像度写真からなるFloralSixデータセットも導入された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precise localization and recognition of flowers are crucial for advancing automated agriculture, particularly in plant phenotyping, crop estimation, and yield monitoring. This paper benchmarks several YOLO architectures such as YOLOv5s, YOLOv8n/s/m, and YOLOv12n for flower object detection under two annotation regimes: single-image single-bounding box (SISBB) and single-image multiple-bounding box (SIMBB). The FloralSix dataset, comprising 2,816 high-resolution photos of six different flower species, is also introduced. It is annotated for both dense (clustered) and sparse (isolated) scenarios. The models were evaluated using Precision, Recall, and Mean Average Precision (mAP) at IoU thresholds of 0.5 (mAP@0.5) and 0.5-0.95 (mAP@0.5:0.95). In SISBB, YOLOv8m (SGD) achieved the best results with Precision 0.956, Recall 0.951, mAP@0.5 0.978, and mAP@0.5:0.95 0.865, illustrating strong accuracy in detecting isolated flowers. With mAP@0.5 0.934 and mAP@0.5:0.95 0.752, YOLOv12n (SGD) outperformed the more complicated SIMBB scenario, proving robustness in dense, multi-object detection. Results show how annotation density, IoU thresholds, and model size interact: recall-optimized models perform better in crowded environments, whereas precision-oriented models perform best in sparse scenarios. In both cases, the Stochastic Gradient Descent (SGD) optimizer consistently performed better than alternatives. These density-sensitive sensors are helpful for non-destructive crop analysis, growth tracking, robotic pollination, and stress evaluation.
- Abstract(参考訳): 花の精密な局在化と認識は、特に植物の表現型化、作物の推定、収量モニタリングにおいて、自動化農業の推進に不可欠である。
本稿では, YOLOv5s, YOLOv8n/s/m, YOLOv12nなどのYOLOアーキテクチャを, 単像単行箱 (SISBB) と単像多行箱 (SIMBB) の2つのアノテーション条件下でベンチマークする。
6つの異なる花種の2,816枚の高解像度写真からなるFloralSixデータセットも導入された。
これは、密集した(クラスタ化された)シナリオとスパース(分離された)シナリオの両方に注釈付けされている。
IoU閾値0.5(mAP@0.5)と0.5-0.95(mAP@0.5:0.95)で精度,リコール,平均精度(mAP)を評価した。
SISBBでは、YOLOv8m (SGD) がPrecision 0.956、Recall 0.951、mAP@0.5 0.978、mAP@0.5:0.95 0.865で最高の結果を得た。
mAP@0.5 0.934とmAP@0.5:0.95 0.752では、YOLOv12n (SGD) はより複雑なSIMBBのシナリオより優れ、密集した多物体検出において堅牢性を証明した。
その結果、アノテーション密度、IoUしきい値、モデルサイズがどのように相互作用するかが示される。
どちらの場合も、SGD(Stochastic Gradient Descent)オプティマイザはオルタナティブよりも一貫して性能が良い。
これらの密度感度センサーは、非破壊的な作物分析、成長追跡、ロボットの受粉、ストレス評価に有用である。
関連論文リスト
- Detection of On-Ground Chestnuts Using Artificial Intelligence Toward Automated Picking [0.09176056742068812]
伝統的な機械化された栗の収穫は、小さな生産者にとっては高価すぎる。
オーチャードフロアにおけるクリの正確な検出は、低コストで視覚誘導型自動収穫技術の開発に不可欠である。
本研究は,6524個の注釈付き栗を含む果樹園床の栗の319枚の画像を収集した。
論文 参考訳(メタデータ) (2026-02-15T13:28:23Z) - YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception [58.06752127687312]
高精度で軽量な物体検出器YOLOv13を提案する。
ハイパーグラフに基づく適応相関強化(HyperACE)機構を提案する。
また,FullPAD(Full-Pipeline Aggregation-and-Distribution)パラダイムを提案する。
論文 参考訳(メタデータ) (2025-06-21T15:15:03Z) - RF-DETR Object Detection vs YOLOv12 : A Study of Transformer-based and CNN-based Architectures for Single-Class and Multi-Class Greenfruit Detection in Complex Orchard Environments Under Label Ambiguity [0.8488322025656239]
本研究では,RF-DETRオブジェクト検出ベースモデルとYOLOv12オブジェクト検出モデル構成の詳細な比較を行う。
単一クラス (greenfruit) とマルチクラス (occluded and non-ococuded greenfruits) アノテーションを備えたカスタムデータセットが開発された。
DINOv2のバックボーンと変形可能なアテンションを利用するRF-DETRモデルは、グローバルなコンテキストモデリングにおいて優れている。
YOLOv12はCNNベースの注意をローカル特徴抽出の強化に利用し、計算効率とエッジデプロイメントに最適化した。
論文 参考訳(メタデータ) (2025-04-17T17:08:11Z) - Assessing the Capability of YOLO- and Transformer-based Object Detectors for Real-time Weed Detection [0.0]
YOLOv8, YOLOv9, YOLOv10, RT-DETRのすべての利用可能なモデルは、実地状況の画像を用いて訓練され、評価される。
その結果、評価された指標では、全てのモデルが等しくよく機能するのに対し、YOLOv9モデルは強いリコールスコアの点で際立っていることがわかった。
RT-DETRモデル、特にRT-DETR-lは、データセット1では82.44 %、データセット2では81.46 %の精度で優れている。
論文 参考訳(メタデータ) (2025-01-29T02:39:57Z) - Robust Fine-tuning of Zero-shot Models via Variance Reduction [56.360865951192324]
微調整ゼロショットモデルの場合、このデシドラトゥムは細調整モデルで、分布内(ID)と分布外(OOD)の両方で優れる。
トレードオフを伴わずに最適なIDとOODの精度を同時に達成できるサンプルワイズアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T13:13:39Z) - Fall Detection for Industrial Setups Using YOLOv8 Variants [0.0]
25.9百万のパラメータと79.1のGFLOPからなるYOLOv8mモデルでは、計算効率と検出性能のバランスが良好であった。
YOLOv8l と YOLOv8x モデルでは精度とリコールが向上したが、その高い計算要求とモデルサイズによりリソース制約のある環境には適さない。
論文 参考訳(メタデータ) (2024-08-08T17:24:54Z) - Two Scalable Approaches for Burned-Area Mapping Using U-Net and Landsat
Imagery [39.91303506884272]
本研究では,U-Netモデルに基づくバーン・エリアマッピングプロセスの自動化と最適化のための2つのアプローチを提案する。
研究領域の195の代表的な画像に基づくテストでは、ASモデルを用いたデータセットのバランスの向上により、より良いパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2023-11-29T05:42:25Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - TraDE: Transformers for Density Estimation [101.20137732920718]
TraDEは自己回帰密度推定のための自己アテンションに基づくアーキテクチャである。
本稿では, 生成したサンプルを用いた回帰, 分布外検出, トレーニングデータにおける雑音に対する頑健性などのタスクについて述べる。
論文 参考訳(メタデータ) (2020-04-06T07:32:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。