論文の概要: Integrating YOLO11 and Convolution Block Attention Module for Multi-Season Segmentation of Tree Trunks and Branches in Commercial Apple Orchards
- arxiv url: http://arxiv.org/abs/2412.05728v1
- Date: Sat, 07 Dec 2024 19:36:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:55:13.357761
- Title: Integrating YOLO11 and Convolution Block Attention Module for Multi-Season Segmentation of Tree Trunks and Branches in Commercial Apple Orchards
- Title(参考訳): 商用リンゴ果樹のマルチシーソン分割のためのYOLO11と畳み込みブロック注意モジュールの統合
- Authors: Ranjan Sapkota, Manoj Karkee,
- Abstract要約: 本研究では、畳み込みブロック注意モジュールとYOLO11アーキテクチャを統合することで、カスタマイズされたインスタンスセグメンテーションモデルを開発した。
モデルは, YOLO11-CBAMを訓練した後, 休眠期および天蓋期の画像間で個別に検証された。
2つの季節データセットを休眠と天蓋の季節画像としてトレーニングしたモデリング手法は、YOLO11-CBAM統合の可能性を示した。
- 参考スコア(独自算出の注目度): 0.4143603294943439
- License:
- Abstract: In this study, we developed a customized instance segmentation model by integrating the Convolutional Block Attention Module (CBAM) with the YOLO11 architecture. This model, trained on a mixed dataset of dormant and canopy season apple orchard images, aimed to enhance the segmentation of tree trunks and branches under varying seasonal conditions throughout the year. The model was individually validated across dormant and canopy season images after training the YOLO11-CBAM on the mixed dataset collected over the two seasons. Additional testing of the model during pre-bloom, flower bloom, fruit thinning, and harvest season was performed. The highest recall and precision metrics were observed in the YOLO11x-seg-CBAM and YOLO11m-seg-CBAM respectively. Particularly, YOLO11m-seg with CBAM showed the highest precision of 0.83 as performed for the Trunk class in training, while without the CBAM, YOLO11m-seg achieved 0.80 precision score for the Trunk class. Likewise, for branch class, YOLO11m-seg with CBAM achieved the highest precision score value of 0.75 while without the CBAM, the YOLO11m-seg achieved a precision of 0.73. For dormant season validation, YOLO11x-seg exhibited the highest precision at 0.91. Canopy season validation highlighted YOLO11s-seg with superior precision across all classes, achieving 0.516 for Branch, and 0.64 for Trunk. The modeling approach, trained on two season datasets as dormant and canopy season images, demonstrated the potential of the YOLO11-CBAM integration to effectively detect and segment tree trunks and branches year-round across all seasonal variations. Keywords: YOLOv11, YOLOv11 Tree Detection, YOLOv11 Branch Detection and Segmentation, Machine Vision, Deep Learning, Machine Learning
- Abstract(参考訳): 本研究では,CBAM(Convolutional Block Attention Module)とYOLO11アーキテクチャを統合することで,カスタマイズされたインスタンスセグメンテーションモデルを開発した。
このモデルは、休眠期と林冠期のリンゴ果樹園の混成データセットに基づいて訓練され、年間を通じて様々な季節条件下で木の幹と枝の区分けを強化することを目的としている。
モデルは,2シーズンに収集した混合データセット上でYOLO11-CBAMをトレーニングした後,休眠期と天蓋期の画像間で個別に検証した。
開花前, 開花期, 果実の薄型化, 収穫期の追加試験を行った。
YOLO11x-seg-CBAMとYOLO11m-seg-CBAMでは,それぞれ最も高いリコール値と精度が観測された。
特に、CBAMのYOLO11mセグは、Trunkクラスでは最高0.83の精度を示し、CBAMがなければ、YOLO11mセグはTrunkクラスでは0.80の精度を記録した。
同様に、分級ではCBAMのYOLO11mセグが0.75の最高精度を達成し、CBAMがなければYOLO11mセグは0.73の精度を達成した。
休眠シーズンの検証では、YOLO11x-segが0.91で最高精度を示した。
キャノピーシーズンの検証では、全クラスで優れた精度でYOLO11sセグが強調され、ブランチでは0.516、トランクでは0.64が達成された。
2シーズンのデータセットを休眠と天蓋の季節画像としてトレーニングしたモデリング手法は、ヨロ11-CBAM統合の可能性を実証した。
キーワード: YOLOv11, YOLOv11 Tree Detection, YOLOv11 Branch Detection and Segmentation, Machine Vision, Deep Learning, Machine Learning
関連論文リスト
- Zero-Shot Automatic Annotation and Instance Segmentation using LLM-Generated Datasets: Eliminating Field Imaging and Manual Annotation for Deep Learning Model Development [0.36868085124383626]
本研究では, 果樹園におけるリンゴの深層学習に基づくインスタンスセグメンテーション手法を提案する。
そこで我々は, YOLO11ベースモデルと統合したSegment Anything Model (SAM) を用いて, オーチャード画像を合成し, 自動的に注釈付けを行った。
その結果、自動生成したアノテーションはDice Coefficient 0.99513 と IoU 0.9303 を達成し、マスクアノテーションの精度と重複性を検証した。
論文 参考訳(メタデータ) (2024-11-18T05:11:29Z) - Robust Fine-tuning of Zero-shot Models via Variance Reduction [56.360865951192324]
微調整ゼロショットモデルの場合、このデシドラトゥムは細調整モデルで、分布内(ID)と分布外(OOD)の両方で優れる。
トレードオフを伴わずに最適なIDとOODの精度を同時に達成できるサンプルワイズアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T13:13:39Z) - Comparing YOLOv11 and YOLOv8 for instance segmentation of occluded and non-occluded immature green fruits in complex orchard environment [0.4143603294943439]
YOLO11n-セグはすべてのカテゴリーで最高のマスク精度を達成し、スコアは0.831であった。
YOLO11m-seg と YOLO11l-seg は非閉塞および閉塞のフルーツレットセグメンテーションに優れていた。
YOLO11m-segは、ボックスとマスクのセグメンテーションで最高スコアを記録した。
論文 参考訳(メタデータ) (2024-10-24T00:12:20Z) - YOLO11 and Vision Transformers based 3D Pose Estimation of Immature Green Fruits in Commercial Apple Orchards for Robotic Thinning [0.4143603294943439]
商業用果樹果樹における未熟リンゴ(フルーツレット)の3次元ポーズ推定法を開発した。
YOLO11(またはYOLOv11)オブジェクト検出とポーズ推定アルゴリズムとViT(Vision Transformers)を併用して深度推定を行う。
YOLO11nは、ボックス精度と精度の点で、YOLO11とYOLOv8のすべての構成を上回った。
論文 参考訳(メタデータ) (2024-10-21T17:00:03Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - Comparing YOLOv8 and Mask RCNN for object segmentation in complex orchard environments [0.36868085124383626]
本研究では,一段階のYOLOv8と二段階のMask R-CNN機械学習モデルとの比較を行った。
YOLOv8はMask R-CNNより優れており、信頼性閾値0.5で両方のデータセット間で良好な精度とほぼ完璧なリコールを実現している。
論文 参考訳(メタデータ) (2023-12-13T07:29:24Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time Object Detection [63.36722419180875]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの作業は、他のYOLOモデルのプラグイン・アンド・プレイモジュールとしても機能します。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Real-time Strawberry Detection Based on Improved YOLOv5s Architecture
for Robotic Harvesting in open-field environment [0.0]
本研究では, 屋外環境下でイチゴを検出するために, YOLOv5を用いたカスタムオブジェクト検出モデルを提案する。
最も高い平均精度は80.3%であり、提案されたアーキテクチャを用いて達成された。
このモデルは、リアルタイムのイチゴ検出とロボットピッキングのローカライズに十分高速である。
論文 参考訳(メタデータ) (2023-08-08T02:28:48Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。