論文の概要: Immature Green Apple Detection and Sizing in Commercial Orchards using
YOLOv8 and Shape Fitting Techniques
- arxiv url: http://arxiv.org/abs/2401.08629v1
- Date: Fri, 8 Dec 2023 12:10:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 09:50:36.817155
- Title: Immature Green Apple Detection and Sizing in Commercial Orchards using
YOLOv8 and Shape Fitting Techniques
- Title(参考訳): YOLOv8と形状フィッティング技術を用いた商業用果樹の未熟リンゴの検出とサイズ
- Authors: Ranjan Sapkota, Dawood Ahmed, Martin Churuvija, Manoj Karkee
- Abstract要約: 本研究は,3次元点雲データ上の幾何形状整合技術と合わせて,最先端のYOLOv8オブジェクト検出とインスタンス分割アルゴリズムを用いた。
この手法は、Intel RealSense D435iとMicrosoft Azure Kinect DKという2つのRGB-Dセンサーを利用した。
- 参考スコア(独自算出の注目度): 0.36868085124383626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting and estimating size of apples during the early stages of growth is
crucial for predicting yield, pest management, and making informed decisions
related to crop-load management, harvest and post-harvest logistics, and
marketing. Traditional fruit size measurement methods are laborious and
time-consuming. This study employs the state-of-the-art YOLOv8 object detection
and instance segmentation algorithm in conjunction with geometric shape fitting
techniques on 3D point cloud data to accurately determine the size of immature
green apples (or fruitlet) in a commercial orchard environment. The methodology
utilized two RGB-D sensors: the Intel RealSense D435i and the Microsoft Azure
Kinect DK. Notably, the YOLOv8 instance segmentation models exhibited
proficiency in immature green apple detection, with the YOLOv8m-seg model
clinching the highest AP@0.5 and AP@0.75 scores of 0.94 and 0.91, respectively.
Leveraging the ellipsoid fitting technique on images from the Azure Kinect, we
observed remarkable metrics, including an RMSE of 2.35, MAE of 1.66, MAPE of
6.15, and an R-squared value of 0.9. Challenges such as partial occlusion,
where YOLOv8 sometimes misinterpreted immature green apple clusters, were
recognized. In a comparison of 102 outdoor samples, the Microsoft Azure Kinect
showed better performance than the Intel Realsense D435i, as supported by the
MAE data. This study emphasizes the combined effectiveness of shape-fitting
methods and 3D sensors in improving fruitlet sizing for agriculture.
- Abstract(参考訳): 成長の初期段階におけるリンゴの大きさの検出と推定は、収量予測、害虫管理、作物の負荷管理、収穫と収穫後の物流、およびマーケティングに関するインフォームドな決定に不可欠である。
伝統的な果実の大きさ測定法は、手間と時間を要する。
本研究は,3次元点雲データ上の幾何形状整合技術と合わせて,最先端のYOLOv8オブジェクト検出とインスタンスセグメンテーションアルゴリズムを用いて,商業用果樹園環境における未熟リンゴ(フルーツレット)のサイズを正確に判定する。
この手法は、Intel RealSense D435iとMicrosoft Azure Kinect DKという2つのRGB-Dセンサーを利用した。
特に、YOLOv8インスタンスセグメンテーションモデルでは未熟なリンゴの検出に習熟し、YOLOv8mセグモデルではAP@0.5とAP@0.75のスコアがそれぞれ0.94と0.91である。
Azure Kinectの画像に楕円体フィッティング技術を活用することで、RMSEの2.35、MAEの1.66、MAPEの6.15、R2乗値の0.9などの顕著な指標を観測した。
YOLOv8が未熟リンゴ群を誤って解釈する部分閉塞などの課題が認められた。
102個の屋外サンプルを比較すると、Microsoft Azure Kinectは、MAEデータでサポートされているIntel Realsense D435iよりも優れたパフォーマンスを示した。
本研究は, 形状適合法と3次元センサの併用による農業用果実サイズの改善を強調する。
関連論文リスト
- YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Look how they have grown: Non-destructive Leaf Detection and Size
Estimation of Tomato Plants for 3D Growth Monitoring [4.303287713669109]
本稿では,非破壊画像に基づく自動計測システムについて述べる。
Zividの3Dカメラで得られた2Dと3Dのデータを使って、トマトの3D仮想表現(デジタル双生児)を生成する。
実生トマトの総合的な試験を通じて, プラットフォームの性能を測定した。
論文 参考訳(メタデータ) (2023-04-07T12:16:10Z) - Collaboration Helps Camera Overtake LiDAR in 3D Detection [49.58433319402405]
カメラのみの3D検出は、LiDARベースの検出システムと比較して、オブジェクトを3D空間にローカライズするための簡単なソリューションを提供する。
提案するコラボレーティブカメラのみの3D検出(CoCa3D)により,エージェントは通信を通じて相互に補完情報を共有できる。
その結果、CoCa3Dは従来のSOTA性能をDAIR-V2Xで44.21%改善し、OPV2V+で30.60%、AP@70でCoPerception-UAVs+で12.59%向上した。
論文 参考訳(メタデータ) (2023-03-23T03:50:41Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter
Encoders for Natural Language Understanding Systems [63.713297451300086]
本研究では,700Mから9.3Bまでの非埋め込みパラメータ数を持つ事前学習エンコーダの大規模実験結果について述べる。
その後、17M-170Mパラメータからより小さなモデルに蒸留し、仮想アシスタントシステムの自然言語理解(NLU)コンポーネントに応用した。
論文 参考訳(メタデータ) (2022-06-15T20:44:23Z) - PP-PicoDet: A Better Real-Time Object Detector on Mobile Devices [13.62426382827205]
実時間物体検出器のPP-PicoDetファミリは,モバイルデバイスの物体検出において優れた性能を発揮する。
モデルは、他の一般的なモデルと比較して、精度とレイテンシのトレードオフを改善する。
論文 参考訳(メタデータ) (2021-11-01T12:53:17Z) - YOLO-ReT: Towards High Accuracy Real-time Object Detection on Edge GPUs [14.85882314822983]
ディープニューラルネットワーク(DNN)ベースのオブジェクト検出モデルをエッジデバイスにマップするには、通常、そのようなモデルを著しく圧縮する必要がある。
本稿では,マルチスケール機能インタラクションのためのエッジGPUフレンドリなモジュールを提案する。
また,様々なタスク間の翻訳情報の流れの変化にインスパイアされた,新たな学習バックボーンの導入を提案する。
論文 参考訳(メタデータ) (2021-10-26T14:02:59Z) - A Real-time Low-cost Artificial Intelligence System for Autonomous
Spraying in Palm Plantations [1.6799377888527687]
精密作物保護では、画像処理における(ターゲット指向)物体検出は、無人航空機(UAV、作物保護ドローン)を適切な場所にナビゲートし、農薬を適用するのに役立ちます。
本稿では,Ag-YOLO(Ag-YOLO)と呼ばれる軽深度ニューラルネットワーク(DNN)に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-06T15:05:14Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。