論文の概要: Swin-transformer-yolov5 For Real-time Wine Grape Bunch Detection
- arxiv url: http://arxiv.org/abs/2208.14508v3
- Date: Tue, 8 Aug 2023 08:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 17:42:02.648091
- Title: Swin-transformer-yolov5 For Real-time Wine Grape Bunch Detection
- Title(参考訳): Swin-transformer-yolov5によるリアルタイムワイングレープバンチ検出
- Authors: Shenglian Lu (1), Xiaoyu Liu (1), Zixaun He (2), Wenbo Liu (3), Xin
Zhang (3), and Manoj Karkee (2) ((1) Guangxi Normal University, China, (2)
Washington State University, US, (3) Mississippi State University, US)
- Abstract要約: この調査は、2019年7月から9月にかけて、シャルドネとメルローの2種類のブドウ品種について行われた。
提案されたSwin-T-YOLOv5は、ブドウ束検出のための他の研究モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this research, an integrated detection model, Swin-transformer-YOLOv5 or
Swin-T-YOLOv5, was proposed for real-time wine grape bunch detection to inherit
the advantages from both YOLOv5 and Swin-transformer. The research was
conducted on two different grape varieties of Chardonnay (always white berry
skin) and Merlot (white or white-red mix berry skin when immature; red when
matured) from July to September in 2019. To verify the superiority of
Swin-T-YOLOv5, its performance was compared against several commonly
used/competitive object detectors, including Faster R-CNN, YOLOv3, YOLOv4, and
YOLOv5. All models were assessed under different test conditions, including two
different weather conditions (sunny and cloudy), two different berry maturity
stages (immature and mature), and three different sunlight
directions/intensities (morning, noon, and afternoon) for a comprehensive
comparison. Additionally, the predicted number of grape bunches by
Swin-T-YOLOv5 was further compared with ground truth values, including both
in-field manual counting and manual labeling during the annotation process.
Results showed that the proposed Swin-T-YOLOv5 outperformed all other studied
models for grape bunch detection, with up to 97% of mean Average Precision
(mAP) and 0.89 of F1-score when the weather was cloudy. This mAP was
approximately 44%, 18%, 14%, and 4% greater than Faster R-CNN, YOLOv3, YOLOv4,
and YOLOv5, respectively. Swin-T-YOLOv5 achieved its lowest mAP (90%) and
F1-score (0.82) when detecting immature berries, where the mAP was
approximately 40%, 5%, 3%, and 1% greater than the same. Furthermore,
Swin-T-YOLOv5 performed better on Chardonnay variety with achieved up to 0.91
of R2 and 2.36 root mean square error (RMSE) when comparing the predictions
with ground truth. However, it underperformed on Merlot variety with achieved
only up to 0.70 of R2 and 3.30 of RMSE.
- Abstract(参考訳): 本研究では, リアルタイムワイン品種検出において, Swin-transformer-YOLOv5 と Swin-T-YOLOv5 が提案され, YOLOv5 と Swin-transformer の両方の利点を継承した。
この研究は、2019年7月から9月にかけて、シャルドネ(白ベリーの皮)とメルロット(未熟時に白または白赤の混合ベリーの皮)の2種類のブドウ品種について行われた。
Swin-T-YOLOv5の優位性を検証するため、その性能はFaster R-CNN、YOLOv3、YOLOv4、YOLOv5など、一般的に使われている、競合するオブジェクト検出器と比較された。
いずれのモデルも,2つの異なる気象条件(晴れと曇り),2つの異なるベリー成熟段階(未熟と成熟),および3つの異なる日光方向/強度(朝,正午,午後)を総合的に比較した。
さらに,Swin-T-YOLOv5によるブドウの品種数予測は,アノテーション処理中の手動カウントや手動ラベリングなど,真理値と比較した。
その結果、提案されたSwin-T-YOLOv5は、天候が曇ったときに平均精度(mAP)が97%、F1スコアが0.89という他の研究モデルよりも優れていた。
このmAPはFaster R-CNN, YOLOv3, YOLOv4, YOLOv5より約44%, 18%, 14%, 4%高かった。
Swin-T-YOLOv5 は未熟果検出時に最低 mAP (90%) と F1-score (0.82) を達成し, 約40%, 5%, 3%, 1% の値を示した。
さらに、Swin-T-YOLOv5は、予測と地上の真実を比較する際に、R2の最大0.91と2.36の根平均二乗誤差(RMSE)を達成したシャルドネ品種に対してより良い性能を示した。
しかし、Merlotの品種では性能が劣り、R2の0.70とRMSEの3.30しか達成できなかった。
関連論文リスト
- Comparing YOLO11 and YOLOv8 for instance segmentation of occluded and non-occluded immature green fruits in complex orchard environment [0.4143603294943439]
本研究は、果樹園における未成熟リンゴのYOLO11とYOLOv8のインスタンスセグメンテーション機能に焦点を当てた。
YOLO11n-セグはすべてのカテゴリーで最高のマスク精度を達成し、スコアは0.831であった。
YOLO11m-segは、ボックスとマスクのセグメンテーションで最高スコアを記録した。
論文 参考訳(メタデータ) (2024-10-24T00:12:20Z) - YOLO11 and Vision Transformers based 3D Pose Estimation of Immature Green Fruits in Commercial Apple Orchards for Robotic Thinning [0.4143603294943439]
商業用果樹果樹における未熟リンゴ(フルーツレット)の3次元ポーズ推定法を開発した。
YOLO11オブジェクト検出とポーズ推定アルゴリズムとViT(Vision Transformers)を併用して深度推定を行う。
YOLO11nは、ボックス精度と精度の点で、YOLO11とYOLOv8のすべての構成を上回った。
論文 参考訳(メタデータ) (2024-10-21T17:00:03Z) - Words Worth a Thousand Pictures: Measuring and Understanding Perceptual Variability in Text-to-Image Generation [58.77994391566484]
拡散モデル(diffusion model)は、テキスト・画像生成における技術の現状であるが、その知覚的多様性はまだ検討されていない。
W1KPは、既存の画像対知覚距離からブートストラップした画像の集合における可変性の人間の校正尺度である。
私たちの最高の知覚距離は、9つの基準線を最大18ポイント精度で上回り、キャリブレーションは人間の判断と78%の時間で一致します。
論文 参考訳(メタデータ) (2024-06-12T17:59:27Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - Predicting Overtakes in Trucks Using CAN Data [51.28632782308621]
CANデータからトラックの積載量の検出について検討する。
私たちの分析では、オーバーテイクイベントの最大10秒前をカバーしています。
我々は、オーバーテイク・トリガーに近づくと、オーバーテイク・クラスの予測スコアが増加する傾向にあることを観察する。
論文 参考訳(メタデータ) (2024-04-08T17:58:22Z) - YOLOv5 vs. YOLOv8 in Marine Fisheries: Balancing Class Detection and Instance Count [0.0]
本稿では, YOLOv5 と YOLOv8 を用いて, 動脈, 嚢胞, 排便の3つの異なるクラスについて, 対象物検出法の比較検討を行った。
YOLOv5は、高い精度と精度で、動脈と嚢胞を検出できる。
しかし、排他物を検出するということになると、YOLOv5は顕著な課題と限界に直面した。
論文 参考訳(メタデータ) (2024-04-01T20:01:04Z) - Real-time Strawberry Detection Based on Improved YOLOv5s Architecture
for Robotic Harvesting in open-field environment [0.0]
本研究では, 屋外環境下でイチゴを検出するために, YOLOv5を用いたカスタムオブジェクト検出モデルを提案する。
最も高い平均精度は80.3%であり、提案されたアーキテクチャを用いて達成された。
このモデルは、リアルタイムのイチゴ検出とロボットピッキングのローカライズに十分高速である。
論文 参考訳(メタデータ) (2023-08-08T02:28:48Z) - Assessing The Performance of YOLOv5 Algorithm for Detecting Volunteer
Cotton Plants in Corn Fields at Three Different Growth Stages [5.293431074053198]
テキサス・ボール・ウィービル根絶プログラム (TBWEP) では、道路や畑に自作作物が生えているVCの植物を発見・排除するために人々が雇用している。
本稿では, トウモロコシ畑の中央に生育するVCプラントを検出するために, You Only Look Once Version 5 (YOLOv5) に基づくコンピュータビジョン (CV) アルゴリズムの応用を実証する。
論文 参考訳(メタデータ) (2022-07-31T21:03:40Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。