論文の概要: Immature Green Apple Detection and Sizing in Commercial Orchards using YOLOv8 and Shape Fitting Techniques
- arxiv url: http://arxiv.org/abs/2401.08629v2
- Date: Tue, 2 Apr 2024 16:35:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 09:10:18.576659
- Title: Immature Green Apple Detection and Sizing in Commercial Orchards using YOLOv8 and Shape Fitting Techniques
- Title(参考訳): YOLOv8と形状フィッティング技術を用いた商業用果樹の未熟リンゴの検出とサイズ
- Authors: Ranjan Sapkota, Dawood Ahmed, Martin Churuvija, Manoj Karkee,
- Abstract要約: 本研究は,3次元点雲データ上の幾何形状整合技術と合わせて,最先端のYOLOv8オブジェクト検出とインスタンス分割アルゴリズムを用いた。
この手法は2つのRGB-Dセンサー、Intel RealSense D435iとMicrosoft Azure Kinect DKを利用した。
- 参考スコア(独自算出の注目度): 0.33748750222488655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting and estimating size of apples during the early stages of growth is crucial for predicting yield, pest management, and making informed decisions related to crop-load management, harvest and post-harvest logistics, and marketing. Traditional fruit size measurement methods are laborious and timeconsuming. This study employs the state-of-the-art YOLOv8 object detection and instance segmentation algorithm in conjunction with geometric shape fitting techniques on 3D point cloud data to accurately determine the size of immature green apples (or fruitlet) in a commercial orchard environment. The methodology utilized two RGB-D sensors: Intel RealSense D435i and Microsoft Azure Kinect DK. Notably, the YOLOv8 instance segmentation models exhibited proficiency in immature green apple detection, with the YOLOv8m-seg model achieving the highest AP@0.5 and AP@0.75 scores of 0.94 and 0.91, respectively. Using the ellipsoid fitting technique on images from the Azure Kinect, we achieved an RMSE of 2.35 mm, MAE of 1.66 mm, MAPE of 6.15 mm, and an R-squared value of 0.9 in estimating the size of apple fruitlets. Challenges such as partial occlusion caused some error in accurately delineating and sizing green apples using the YOLOv8-based segmentation technique, particularly in fruit clusters. In a comparison with 102 outdoor samples, the size estimation technique performed better on the images acquired with Microsoft Azure Kinect than the same with Intel Realsense D435i. This superiority is evident from the metrics: the RMSE values (2.35 mm for Azure Kinect vs. 9.65 mm for Realsense D435i), MAE values (1.66 mm for Azure Kinect vs. 7.8 mm for Realsense D435i), and the R-squared values (0.9 for Azure Kinect vs. 0.77 for Realsense D435i).
- Abstract(参考訳): 成長の初期段階におけるリンゴの大きさの検出と推定は、収穫量の予測、害虫管理、収穫・収穫後の物流、マーケティングに関する情報的決定に不可欠である。
伝統的な果実の大きさ測定法は、手間と時間を要する。
本研究は,3次元点雲データ上の幾何形状整合技術と合わせて,最先端のYOLOv8オブジェクト検出とインスタンスセグメンテーションアルゴリズムを用いて,商業用果樹園環境における未熟リンゴ(フルーツレット)のサイズを正確に判定する。
この手法は2つのRGB-Dセンサー、Intel RealSense D435iとMicrosoft Azure Kinect DKを利用した。
特に、YOLOv8インスタンスセグメンテーションモデルでは未熟なリンゴの検出に習熟し、YOLOv8mセグモデルはAP@0.5点、AP@0.75点はそれぞれ0.94点、0.91点を記録した。
Azure Kinectの画像の楕円体フィッティング技術を用いて、RMSEは2.35mm、MAEは1.66mm、MAPEは6.15mm、R-2乗値は0.9。
部分閉塞などの課題は、特に果実クラスターにおいて、YOLOv8ベースのセグメンテーション技術を用いて、緑のリンゴを正確にデライン化・サイズ化する際の誤りを引き起こした。
102個の屋外サンプルと比較すると、Microsoft Azure Kinectで取得した画像では、Intel Realsense D435iで取得した画像よりも、サイズ推定が優れている。
この優位性は、RMSE値(Realsense D435iで2.35 mm)、MAE値(Realsense D435iで1.66 mm)、R2乗値(Realsense D435iで0.9 mm)、R2乗値(Realsense D435iで0.9 mm)から明らかである。
関連論文リスト
- YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Look how they have grown: Non-destructive Leaf Detection and Size
Estimation of Tomato Plants for 3D Growth Monitoring [4.303287713669109]
本稿では,非破壊画像に基づく自動計測システムについて述べる。
Zividの3Dカメラで得られた2Dと3Dのデータを使って、トマトの3D仮想表現(デジタル双生児)を生成する。
実生トマトの総合的な試験を通じて, プラットフォームの性能を測定した。
論文 参考訳(メタデータ) (2023-04-07T12:16:10Z) - Collaboration Helps Camera Overtake LiDAR in 3D Detection [49.58433319402405]
カメラのみの3D検出は、LiDARベースの検出システムと比較して、オブジェクトを3D空間にローカライズするための簡単なソリューションを提供する。
提案するコラボレーティブカメラのみの3D検出(CoCa3D)により,エージェントは通信を通じて相互に補完情報を共有できる。
その結果、CoCa3Dは従来のSOTA性能をDAIR-V2Xで44.21%改善し、OPV2V+で30.60%、AP@70でCoPerception-UAVs+で12.59%向上した。
論文 参考訳(メタデータ) (2023-03-23T03:50:41Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter
Encoders for Natural Language Understanding Systems [63.713297451300086]
本研究では,700Mから9.3Bまでの非埋め込みパラメータ数を持つ事前学習エンコーダの大規模実験結果について述べる。
その後、17M-170Mパラメータからより小さなモデルに蒸留し、仮想アシスタントシステムの自然言語理解(NLU)コンポーネントに応用した。
論文 参考訳(メタデータ) (2022-06-15T20:44:23Z) - PP-PicoDet: A Better Real-Time Object Detector on Mobile Devices [13.62426382827205]
実時間物体検出器のPP-PicoDetファミリは,モバイルデバイスの物体検出において優れた性能を発揮する。
モデルは、他の一般的なモデルと比較して、精度とレイテンシのトレードオフを改善する。
論文 参考訳(メタデータ) (2021-11-01T12:53:17Z) - YOLO-ReT: Towards High Accuracy Real-time Object Detection on Edge GPUs [14.85882314822983]
ディープニューラルネットワーク(DNN)ベースのオブジェクト検出モデルをエッジデバイスにマップするには、通常、そのようなモデルを著しく圧縮する必要がある。
本稿では,マルチスケール機能インタラクションのためのエッジGPUフレンドリなモジュールを提案する。
また,様々なタスク間の翻訳情報の流れの変化にインスパイアされた,新たな学習バックボーンの導入を提案する。
論文 参考訳(メタデータ) (2021-10-26T14:02:59Z) - A Real-time Low-cost Artificial Intelligence System for Autonomous
Spraying in Palm Plantations [1.6799377888527687]
精密作物保護では、画像処理における(ターゲット指向)物体検出は、無人航空機(UAV、作物保護ドローン)を適切な場所にナビゲートし、農薬を適用するのに役立ちます。
本稿では,Ag-YOLO(Ag-YOLO)と呼ばれる軽深度ニューラルネットワーク(DNN)に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-06T15:05:14Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。