論文の概要: Immature Green Apple Detection and Sizing in Commercial Orchards using YOLOv8 and Shape Fitting Techniques
- arxiv url: http://arxiv.org/abs/2401.08629v2
- Date: Tue, 2 Apr 2024 16:35:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 09:10:18.576659
- Title: Immature Green Apple Detection and Sizing in Commercial Orchards using YOLOv8 and Shape Fitting Techniques
- Title(参考訳): YOLOv8と形状フィッティング技術を用いた商業用果樹の未熟リンゴの検出とサイズ
- Authors: Ranjan Sapkota, Dawood Ahmed, Martin Churuvija, Manoj Karkee,
- Abstract要約: 本研究は,3次元点雲データ上の幾何形状整合技術と合わせて,最先端のYOLOv8オブジェクト検出とインスタンス分割アルゴリズムを用いた。
この手法は2つのRGB-Dセンサー、Intel RealSense D435iとMicrosoft Azure Kinect DKを利用した。
- 参考スコア(独自算出の注目度): 0.33748750222488655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting and estimating size of apples during the early stages of growth is crucial for predicting yield, pest management, and making informed decisions related to crop-load management, harvest and post-harvest logistics, and marketing. Traditional fruit size measurement methods are laborious and timeconsuming. This study employs the state-of-the-art YOLOv8 object detection and instance segmentation algorithm in conjunction with geometric shape fitting techniques on 3D point cloud data to accurately determine the size of immature green apples (or fruitlet) in a commercial orchard environment. The methodology utilized two RGB-D sensors: Intel RealSense D435i and Microsoft Azure Kinect DK. Notably, the YOLOv8 instance segmentation models exhibited proficiency in immature green apple detection, with the YOLOv8m-seg model achieving the highest AP@0.5 and AP@0.75 scores of 0.94 and 0.91, respectively. Using the ellipsoid fitting technique on images from the Azure Kinect, we achieved an RMSE of 2.35 mm, MAE of 1.66 mm, MAPE of 6.15 mm, and an R-squared value of 0.9 in estimating the size of apple fruitlets. Challenges such as partial occlusion caused some error in accurately delineating and sizing green apples using the YOLOv8-based segmentation technique, particularly in fruit clusters. In a comparison with 102 outdoor samples, the size estimation technique performed better on the images acquired with Microsoft Azure Kinect than the same with Intel Realsense D435i. This superiority is evident from the metrics: the RMSE values (2.35 mm for Azure Kinect vs. 9.65 mm for Realsense D435i), MAE values (1.66 mm for Azure Kinect vs. 7.8 mm for Realsense D435i), and the R-squared values (0.9 for Azure Kinect vs. 0.77 for Realsense D435i).
- Abstract(参考訳): 成長の初期段階におけるリンゴの大きさの検出と推定は、収穫量の予測、害虫管理、収穫・収穫後の物流、マーケティングに関する情報的決定に不可欠である。
伝統的な果実の大きさ測定法は、手間と時間を要する。
本研究は,3次元点雲データ上の幾何形状整合技術と合わせて,最先端のYOLOv8オブジェクト検出とインスタンスセグメンテーションアルゴリズムを用いて,商業用果樹園環境における未熟リンゴ(フルーツレット)のサイズを正確に判定する。
この手法は2つのRGB-Dセンサー、Intel RealSense D435iとMicrosoft Azure Kinect DKを利用した。
特に、YOLOv8インスタンスセグメンテーションモデルでは未熟なリンゴの検出に習熟し、YOLOv8mセグモデルはAP@0.5点、AP@0.75点はそれぞれ0.94点、0.91点を記録した。
Azure Kinectの画像の楕円体フィッティング技術を用いて、RMSEは2.35mm、MAEは1.66mm、MAPEは6.15mm、R-2乗値は0.9。
部分閉塞などの課題は、特に果実クラスターにおいて、YOLOv8ベースのセグメンテーション技術を用いて、緑のリンゴを正確にデライン化・サイズ化する際の誤りを引き起こした。
102個の屋外サンプルと比較すると、Microsoft Azure Kinectで取得した画像では、Intel Realsense D435iで取得した画像よりも、サイズ推定が優れている。
この優位性は、RMSE値(Realsense D435iで2.35 mm)、MAE値(Realsense D435iで1.66 mm)、R2乗値(Realsense D435iで0.9 mm)、R2乗値(Realsense D435iで0.9 mm)から明らかである。
関連論文リスト
- YOLO11 and Vision Transformers based 3D Pose Estimation of Immature Green Fruits in Commercial Apple Orchards for Robotic Thinning [0.4143603294943439]
商業用果樹果樹における未熟リンゴ(フルーツレット)の3次元ポーズ推定法を開発した。
YOLO11オブジェクト検出とポーズ推定アルゴリズムとViT(Vision Transformers)を併用して深度推定を行う。
YOLO11nは、ボックス精度と精度の点で、YOLO11とYOLOv8のすべての構成を上回った。
論文 参考訳(メタデータ) (2024-10-21T17:00:03Z) - Performance Evaluation of YOLOv8 Model Configurations, for Instance Segmentation of Strawberry Fruit Development Stages in an Open Field Environment [0.0]
本研究では, オープンフィールド環境下でイチゴを熟成・未熟成段階に分割するためのYOLOv8モデル構成の性能評価を行った。
YOLOv8nモデルは、平均平均精度 (mAP) が80.9%と優れたセグメンテーション精度を示し、他のYOLOv8構成よりも優れていた。
論文 参考訳(メタデータ) (2024-08-11T00:33:45Z) - xCOMET-lite: Bridging the Gap Between Efficiency and Quality in Learned MT Evaluation Metrics [69.14652127492438]
xCOMETのような最先端の機械翻訳評価指標は、人間の判断と高い相関性を得るが、大きなエンコーダに依存している。
我々は, 蒸留, 定量化, プルーニング技術を用いて, 効率的なxCOMET代替品を作成する。
量子化により,xCOMETは3倍の圧縮が可能であり,品質劣化は生じない。
論文 参考訳(メタデータ) (2024-06-20T17:58:34Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Look how they have grown: Non-destructive Leaf Detection and Size
Estimation of Tomato Plants for 3D Growth Monitoring [4.303287713669109]
本稿では,非破壊画像に基づく自動計測システムについて述べる。
Zividの3Dカメラで得られた2Dと3Dのデータを使って、トマトの3D仮想表現(デジタル双生児)を生成する。
実生トマトの総合的な試験を通じて, プラットフォームの性能を測定した。
論文 参考訳(メタデータ) (2023-04-07T12:16:10Z) - EATFormer: Improving Vision Transformer Inspired by Evolutionary Algorithm [111.17100512647619]
本稿では、実証された実用的な進化的アルゴリズム(EA)と類似したビジョントランスフォーマーの合理性を説明する。
本稿では,EA ベースのトランス (EAT) ブロックのみを含む新しいピラミッド EATFormer バックボーンを提案する。
画像分類,下流タスク,説明実験に関する大規模かつ定量的な実験は,我々のアプローチの有効性と優位性を示すものである。
論文 参考訳(メタデータ) (2022-06-19T04:49:35Z) - Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter
Encoders for Natural Language Understanding Systems [63.713297451300086]
本研究では,700Mから9.3Bまでの非埋め込みパラメータ数を持つ事前学習エンコーダの大規模実験結果について述べる。
その後、17M-170Mパラメータからより小さなモデルに蒸留し、仮想アシスタントシステムの自然言語理解(NLU)コンポーネントに応用した。
論文 参考訳(メタデータ) (2022-06-15T20:44:23Z) - PP-PicoDet: A Better Real-Time Object Detector on Mobile Devices [13.62426382827205]
実時間物体検出器のPP-PicoDetファミリは,モバイルデバイスの物体検出において優れた性能を発揮する。
モデルは、他の一般的なモデルと比較して、精度とレイテンシのトレードオフを改善する。
論文 参考訳(メタデータ) (2021-11-01T12:53:17Z) - A Real-time Low-cost Artificial Intelligence System for Autonomous
Spraying in Palm Plantations [1.6799377888527687]
精密作物保護では、画像処理における(ターゲット指向)物体検出は、無人航空機(UAV、作物保護ドローン)を適切な場所にナビゲートし、農薬を適用するのに役立ちます。
本稿では,Ag-YOLO(Ag-YOLO)と呼ばれる軽深度ニューラルネットワーク(DNN)に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-06T15:05:14Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。