論文の概要: Real-time Strawberry Detection Based on Improved YOLOv5s Architecture
for Robotic Harvesting in open-field environment
- arxiv url: http://arxiv.org/abs/2308.03998v4
- Date: Thu, 12 Oct 2023 11:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-15 15:05:52.719479
- Title: Real-time Strawberry Detection Based on Improved YOLOv5s Architecture
for Robotic Harvesting in open-field environment
- Title(参考訳): オープンフィールド環境におけるロボットハーベスティングのための改良型YOLOv5sアーキテクチャに基づくリアルタイムイチゴ検出
- Authors: Zixuan He (1)(2), Salik Ram Khanal (1)(2), Xin Zhang (3), Manoj Karkee
(1)(2), Qin Zhang (1)(2) ((1) Center for Precision and Automated Agricultural
Systems, Washington State University, (2) Department of Biological Systems
Engineering, Washington State University, (3) Department of Agricultural and
Biological Engineering, Mississippi State University)
- Abstract要約: 本研究では, 屋外環境下でイチゴを検出するために, YOLOv5を用いたカスタムオブジェクト検出モデルを提案する。
最も高い平均精度は80.3%であり、提案されたアーキテクチャを用いて達成された。
このモデルは、リアルタイムのイチゴ検出とロボットピッキングのローカライズに十分高速である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study proposed a YOLOv5-based custom object detection model to detect
strawberries in an outdoor environment. The original architecture of the
YOLOv5s was modified by replacing the C3 module with the C2f module in the
backbone network, which provided a better feature gradient flow. Secondly, the
Spatial Pyramid Pooling Fast in the final layer of the backbone network of
YOLOv5s was combined with Cross Stage Partial Net to improve the generalization
ability over the strawberry dataset in this study. The proposed architecture
was named YOLOv5s-Straw. The RGB images dataset of the strawberry canopy with
three maturity classes (immature, nearly mature, and mature) was collected in
open-field environment and augmented through a series of operations including
brightness reduction, brightness increase, and noise adding. To verify the
superiority of the proposed method for strawberry detection in open-field
environment, four competitive detection models (YOLOv3-tiny, YOLOv5s,
YOLOv5s-C2f, and YOLOv8s) were trained, and tested under the same computational
environment and compared with YOLOv5s-Straw. The results showed that the
highest mean average precision of 80.3% was achieved using the proposed
architecture whereas the same was achieved with YOLOv3-tiny, YOLOv5s,
YOLOv5s-C2f, and YOLOv8s were 73.4%, 77.8%, 79.8%, 79.3%, respectively.
Specifically, the average precision of YOLOv5s-Straw was 82.1% in the immature
class, 73.5% in the nearly mature class, and 86.6% in the mature class, which
were 2.3% and 3.7%, respectively, higher than that of the latest YOLOv8s. The
model included 8.6*10^6 network parameters with an inference speed of 18ms per
image while the inference speed of YOLOv8s had a slower inference speed of
21.0ms and heavy parameters of 11.1*10^6, which indicates that the proposed
model is fast enough for real time strawberry detection and localization for
the robotic picking.
- Abstract(参考訳): 本研究では、屋外環境下でイチゴを検知するYOLOv5を用いたカスタムオブジェクト検出モデルを提案する。
YOLOv5sの当初のアーキテクチャは、C3モジュールをバックボーンネットワークのC2fモジュールに置き換えることで変更され、より優れた機能勾配フローを提供した。
第2に, YOLOv5sのバックボーンネットワークの最終層における空間ピラミッドのポーリング速度をクロスステージ部分ネットと組み合わせて, イチゴデータセットの一般化能力を向上した。
提案されたアーキテクチャはYOLOv5s-Strawと名付けられた。
3つの成熟度クラス(未熟、ほぼ成熟、成熟)を持つイチゴキャノピーのrgb画像データセットは、オープンフィールド環境で収集され、輝度の低下、輝度の増大、ノイズの追加を含む一連の操作によって拡張された。
オープンフィールド環境におけるイチゴ検出手法の優位性を検証するため、4つの競合検出モデル(YOLOv3-tiny, YOLOv5s, YOLOv5s-C2f, YOLOv8s)をトレーニングし、同じ計算環境下でテストし、YOLOv5s-Strawと比較した。
その結果、平均平均精度は80.3%で、yolov3-tiny、yolov5s、yolov5s-c2f、yolov8では73.4%、77.8%、79.8%、79.3%であった。
具体的には、YOLOv5s-Strawの平均精度は未熟なクラスで82.1%、ほぼ成熟したクラスで73.5%、成熟したクラスで86.6%であり、それぞれ2.3%と3.7%であった。
モデルには8.6*10^6のネットワークパラメータがあり、1画像あたりの推論速度は18msであり、yolov8の推論速度は21.0ms、重いパラメータは11.1*10^6であった。
関連論文リスト
- YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - RCS-YOLO: A Fast and High-Accuracy Object Detector for Brain Tumor
Detection [7.798672884591179]
チャネルシャッフル(RCS-YOLO)に基づく新しいYOLOアーキテクチャを提案する。
脳腫瘍データセット Br35H の実験的結果は,提案モデルが YOLOv6, YOLOv7, YOLOv8 を超える速度と精度を示した。
提案したRCS-YOLOは,脳腫瘍検出タスクにおける最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-07-31T05:38:17Z) - FengWu: Pushing the Skillful Global Medium-range Weather Forecast beyond
10 Days Lead [93.67314652898547]
人工知能(AI)に基づく高度データ駆動型中距離気象予報システムFengWuについて紹介する。
FengWuは大気力学を正確に再現し、0.25度緯度で37の垂直レベルで将来の陸と大気の状態を予測することができる。
その結果、FengWuは予測能力を大幅に向上させ、熟練した中距離気象予報を10.75日間のリードまで拡張できることがわかった。
論文 参考訳(メタデータ) (2023-04-06T09:16:39Z) - YOLOv6 v3.0: A Full-Scale Reloading [9.348857966505111]
ネットワークアーキテクチャとトレーニングスキームに関して,多数の新たな拡張を施したYOLOv6を更新する。
YOLOv6-Nは、NVIDIA Tesla T4 GPUでテストされた1187 FPSのスループットでCOCOデータセットで37.5%APに達した。
YOLOv6-Sは484 FPSで45.0%のAPを攻撃し、他の主流検出器よりも高速である。
論文 参考訳(メタデータ) (2023-01-13T14:46:46Z) - YOLOv6: A Single-Stage Object Detection Framework for Industrial
Applications [16.047499394184985]
YOLOv6-Nは、NVIDIA Tesla T4 GPU上で1234 FPSのスループットでCOCOデータセットで35.9%APに達する。
YOLOv6-S は 495 FPS で 43.5% AP を攻撃し、他の主流検出器を同じ規模で上回っている。
YOLOv6-M/Lは、同様の推論速度を持つ他の検出器よりも精度(49.5%/52.3%)が高い。
論文 参考訳(メタデータ) (2022-09-07T07:47:58Z) - Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter
Encoders for Natural Language Understanding Systems [63.713297451300086]
本研究では,700Mから9.3Bまでの非埋め込みパラメータ数を持つ事前学習エンコーダの大規模実験結果について述べる。
その後、17M-170Mパラメータからより小さなモデルに蒸留し、仮想アシスタントシステムの自然言語理解(NLU)コンポーネントに応用した。
論文 参考訳(メタデータ) (2022-06-15T20:44:23Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - YOLOX: Exceeding YOLO Series in 2021 [25.734980783220976]
我々は、YOLO検出器をアンカーフリーに切り換え、他の高度な検出技術を実行する。
0.91Mパラメータと1.08G FLOPしか持たないYOLO-Nanoでは、COCOで25.3%のAPが取得でき、NanoDetを1.8%上回っている。
YOLOv4-CSP, YOLOv5-Lとほぼ同じパラメータを持つYOLOX-Lでは、Tesla V100で68.9 FPSの速度でCOCOで50.0%APを達成する。
論文 参考訳(メタデータ) (2021-07-18T12:55:11Z) - An improved helmet detection method for YOLOv3 on an unbalanced dataset [0.0]
YOLOv3の信頼性レベルは、YOLOv3の認識速度を変えることなく0.01-0.02向上する。
処理された画像は、効果的な特徴融合により、画像のローカライゼーションも向上する。
論文 参考訳(メタデータ) (2020-11-09T06:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。