論文の概要: Swin-transformer-yolov5 For Real-time Wine Grape Bunch Detection
- arxiv url: http://arxiv.org/abs/2208.14508v1
- Date: Tue, 30 Aug 2022 19:32:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:20:42.849961
- Title: Swin-transformer-yolov5 For Real-time Wine Grape Bunch Detection
- Title(参考訳): Swin-transformer-yolov5によるリアルタイムワイングレープバンチ検出
- Authors: Shenglian Lu (1), Xiaoyu Liu (1), Zixaun He (2), Manoj Karkee (2) and
Xin Zhang (3) ((1) Guangxi normal university, China, (2) Washington State
University, US, (3) Mississippi State University, US)
- Abstract要約: この調査は、2019年7月から9月にかけて、シャルドネとメルローの2種類のブドウ品種について行われた。
提案されたSwin-T-YOLOv5は、ブドウ束検出のための他の研究モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this research, an integrated detection model, Swin-transformer-YOLOv5 or
Swin-T-YOLOv5, was proposed for real-time wine grape bunch detection to inherit
the advantages from both YOLOv5 and Swin-transformer. The research was
conducted on two different grape varieties of Chardonnay (always white berry
skin) and Merlot (white or white-red mix berry skin when immature; red when
matured) from July to September in 2019. To verify the superiority of
Swin-T-YOLOv5, its performance was compared against several commonly
used/competitive object detectors, including Faster R-CNN, YOLOv3, YOLOv4, and
YOLOv5. All models were assessed under different test conditions, including two
different weather conditions (sunny and cloudy), two different berry maturity
stages (immature and mature), and three different sunlight
directions/intensities (morning, noon, and afternoon) for a comprehensive
comparison. Additionally, the predicted number of grape bunches by
Swin-T-YOLOv5 was further compared with ground truth values, including both
in-field manual counting and manual labeling during the annotation process.
Results showed that the proposed Swin-T-YOLOv5 outperformed all other studied
models for grape bunch detection, with up to 97% of mean Average Precision
(mAP) and 0.89 of F1-score when the weather was cloudy. This mAP was
approximately 44%, 18%, 14%, and 4% greater than Faster R-CNN, YOLOv3, YOLOv4,
and YOLOv5, respectively. Swin-T-YOLOv5 achieved its lowest mAP (90%) and
F1-score (0.82) when detecting immature berries, where the mAP was
approximately 40%, 5%, 3%, and 1% greater than the same. Furthermore,
Swin-T-YOLOv5 performed better on Chardonnay variety with achieved up to 0.91
of R2 and 2.36 root mean square error (RMSE) when comparing the predictions
with ground truth. However, it underperformed on Merlot variety with achieved
only up to 0.70 of R2 and 3.30 of RMSE.
- Abstract(参考訳): 本研究では, リアルタイムワイン品種検出において, Swin-transformer-YOLOv5 と Swin-T-YOLOv5 が提案され, YOLOv5 と Swin-transformer の両方の利点を継承した。
この研究は、2019年7月から9月にかけて、シャルドネ(白ベリーの皮)とメルロット(未熟時に白または白赤の混合ベリーの皮)の2種類のブドウ品種について行われた。
Swin-T-YOLOv5の優位性を検証するため、その性能はFaster R-CNN、YOLOv3、YOLOv4、YOLOv5など、一般的に使われている、競合するオブジェクト検出器と比較された。
いずれのモデルも,2つの異なる気象条件(晴れと曇り),2つの異なるベリー成熟段階(未熟と成熟),および3つの異なる日光方向/強度(朝,正午,午後)を総合的に比較した。
さらに,Swin-T-YOLOv5によるブドウの品種数予測は,アノテーション処理中の手動カウントや手動ラベリングなど,真理値と比較した。
その結果、提案されたSwin-T-YOLOv5は、天候が曇ったときに平均精度(mAP)が97%、F1スコアが0.89という他の研究モデルよりも優れていた。
このmAPはFaster R-CNN, YOLOv3, YOLOv4, YOLOv5より約44%, 18%, 14%, 4%高かった。
Swin-T-YOLOv5 は未熟果検出時に最低 mAP (90%) と F1-score (0.82) を達成し, 約40%, 5%, 3%, 1% の値を示した。
さらに、Swin-T-YOLOv5は、予測と地上の真実を比較する際に、R2の最大0.91と2.36の根平均二乗誤差(RMSE)を達成したシャルドネ品種に対してより良い性能を示した。
しかし、Merlotの品種では性能が劣り、R2の0.70とRMSEの3.30しか達成できなかった。
関連論文リスト
- How Easy is It to Fool Your Multimodal LLMs? An Empirical Analysis on
Deceptive Prompts [59.07350713048311]
提案するMAD-Benchは,既存オブジェクト,オブジェクト数,空間関係,視覚的混乱など,850の試験サンプルを6つのカテゴリに分けたベンチマークである。
GPT-4V, Gemini-Pro から LLaVA-1.5 や CogVLM などのオープンソースモデルに至るまで,一般的な MLLM を包括的に分析する。
GPT-4VはMAD-Benchで75.02%の精度を達成するが、実験中の他のモデルの精度は5%から35%である。
論文 参考訳(メタデータ) (2024-02-20T18:31:27Z) - Real-time Strawberry Detection Based on Improved YOLOv5s Architecture
for Robotic Harvesting in open-field environment [0.0]
本研究では, 屋外環境下でイチゴを検出するために, YOLOv5を用いたカスタムオブジェクト検出モデルを提案する。
最も高い平均精度は80.3%であり、提案されたアーキテクチャを用いて達成された。
このモデルは、リアルタイムのイチゴ検出とロボットピッキングのローカライズに十分高速である。
論文 参考訳(メタデータ) (2023-08-08T02:28:48Z) - Detecting the Presence of COVID-19 Vaccination Hesitancy from South
African Twitter Data Using Machine Learning [0.9830751917335564]
ワクチン接種はパンデミックと戦う主要なツールだが、ワクチンのヘシタシーは公衆衛生の努力を危険にさらしている。
そこで本研究では,AIを用いた分類モデルの訓練を目的とした,ワクチンのヘシタシーに関連する南アフリカのツイートに対する感情分析を行った。
論文 参考訳(メタデータ) (2023-07-12T13:28:37Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - YOLOv6 v3.0: A Full-Scale Reloading [9.348857966505111]
ネットワークアーキテクチャとトレーニングスキームに関して,多数の新たな拡張を施したYOLOv6を更新する。
YOLOv6-Nは、NVIDIA Tesla T4 GPUでテストされた1187 FPSのスループットでCOCOデータセットで37.5%APに達した。
YOLOv6-Sは484 FPSで45.0%のAPを攻撃し、他の主流検出器よりも高速である。
論文 参考訳(メタデータ) (2023-01-13T14:46:46Z) - Assessing The Performance of YOLOv5 Algorithm for Detecting Volunteer
Cotton Plants in Corn Fields at Three Different Growth Stages [5.293431074053198]
テキサス・ボール・ウィービル根絶プログラム (TBWEP) では、道路や畑に自作作物が生えているVCの植物を発見・排除するために人々が雇用している。
本稿では, トウモロコシ畑の中央に生育するVCプラントを検出するために, You Only Look Once Version 5 (YOLOv5) に基づくコンピュータビジョン (CV) アルゴリズムの応用を実証する。
論文 参考訳(メタデータ) (2022-07-31T21:03:40Z) - High performing ensemble of convolutional neural networks for insect
pest image detection [124.23179560022761]
害虫の寄生は作物の被害の主な原因であり、世界中の収入を失った。
我々は異なるトポロジに基づいてCNNのアンサンブルを生成する。
ディープネットワーク最適化のための2つの新しいAdamアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-28T00:49:11Z) - YOLOX: Exceeding YOLO Series in 2021 [25.734980783220976]
我々は、YOLO検出器をアンカーフリーに切り換え、他の高度な検出技術を実行する。
0.91Mパラメータと1.08G FLOPしか持たないYOLO-Nanoでは、COCOで25.3%のAPが取得でき、NanoDetを1.8%上回っている。
YOLOv4-CSP, YOLOv5-Lとほぼ同じパラメータを持つYOLOX-Lでは、Tesla V100で68.9 FPSの速度でCOCOで50.0%APを達成する。
論文 参考訳(メタデータ) (2021-07-18T12:55:11Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。