論文の概要: Evaluating the Single-Shot MultiBox Detector and YOLO Deep Learning
Models for the Detection of Tomatoes in a Greenhouse
- arxiv url: http://arxiv.org/abs/2109.00810v1
- Date: Thu, 2 Sep 2021 09:39:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-03 22:28:02.596912
- Title: Evaluating the Single-Shot MultiBox Detector and YOLO Deep Learning
Models for the Detection of Tomatoes in a Greenhouse
- Title(参考訳): 温室におけるトマト検出のための単発マルチボックス検出器とヨーロ深層学習モデルの評価
- Authors: Sandro A. Magalh\~aes, Lu\'is Castro, Germano Moreira, Filipe N.
Santos, m\'ario Cunha, Jorge Dias and Ant\'onio P. Moreira
- Abstract要約: 本稿では緑と赤みがかったトマトの注釈付き視覚データセットに寄与する。
ロボットプラットフォーム仕様を考えると、シングルショットマルチボックス検出器(SSD)とYOLOアーキテクチャのみを考慮した。
その結果、緑と赤みがかったトマトを検知できることがわかりました。
- 参考スコア(独自算出の注目度): 2.949270275392492
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of robotic solutions for agriculture requires advanced
perception capabilities that can work reliably in any crop stage. For example,
to automatise the tomato harvesting process in greenhouses, the visual
perception system needs to detect the tomato in any life cycle stage (flower to
the ripe tomato). The state-of-the-art for visual tomato detection focuses
mainly on ripe tomato, which has a distinctive colour from the background. This
paper contributes with an annotated visual dataset of green and reddish
tomatoes. This kind of dataset is uncommon and not available for research
purposes. This will enable further developments in edge artificial intelligence
for in situ and in real-time visual tomato detection required for the
development of harvesting robots. Considering this dataset, five deep learning
models were selected, trained and benchmarked to detect green and reddish
tomatoes grown in greenhouses. Considering our robotic platform specifications,
only the Single-Shot MultiBox Detector (SSD) and YOLO architectures were
considered. The results proved that the system can detect green and reddish
tomatoes, even those occluded by leaves. SSD MobileNet v2 had the best
performance when compared against SSD Inception v2, SSD ResNet 50, SSD ResNet
101 and YOLOv4 Tiny, reaching an F1-score of 66.15%, an mAP of 51.46% and an
inference time of 16.44 ms with the NVIDIA Turing Architecture platform, an
NVIDIA Tesla T4, with 12 GB. YOLOv4 Tiny also had impressive results, mainly
concerning inferring times of about 5 ms.
- Abstract(参考訳): 農業のためのロボットソリューションの開発には、どの作物でも確実に機能する高度な認識能力が必要である。
例えば、温室におけるトマト収穫プロセスを自動化するためには、視覚認識システムは、あらゆるライフサイクル段階(熟したトマトへの花)でトマトを検出する必要がある。
視覚トマト検出の最先端は、主に背景から特徴的な色を持つ熟したトマトに焦点を当てている。
本稿では、緑と赤のトマトの注釈付きビジュアルデータセットに寄与する。
この種のデータセットは珍しく、研究目的には利用できない。
これにより、最先端人工知能のさらなる発展と、収穫ロボットの開発に必要なリアルタイムな視覚トマト検出が可能になる。
このデータセットを考慮すると、温室で栽培されている緑と赤みがかったトマトを検出するために、5つのディープラーニングモデルが選択、訓練、ベンチマークされた。
ロボットプラットフォーム仕様を考えると、シングルショットマルチボックス検出器(SSD)とYOLOアーキテクチャのみを考慮した。
その結果,葉に混ざったトマトでも,緑や赤みがかったトマトを検出できることがわかった。
ssd mobilenet v2は、ssd inception v2、ssd resnet 50、ssd resnet 101、yolov4 tinyと比較して最高のパフォーマンスを示し、f1-scoreは66.15%、マップは51.46%、推論時間は16.44ms、nvidia turing architecture platform(nvidia tesla t4)は12gbであった。
YOLOv4 Tinyは、主に約5ミリ秒の推測時間に関する素晴らしい結果を得た。
関連論文リスト
- Deep learning-based approach for tomato classification in complex scenes [0.8287206589886881]
複雑な場面における深層学習に基づくトマト熟成モニタリング手法を提案する。
目的は、成熟したトマトを検出し、タイムリーに収穫することである。
実験は、さまざまな言語にまたがるトマトの状態を用いて、インターネットから収集された画像に基づいて行われる。
論文 参考訳(メタデータ) (2024-01-26T18:33:57Z) - Tomato Maturity Recognition with Convolutional Transformers [5.220581005698766]
著者らは畳み込み変換器を用いたトマト成熟度分類の新しい手法を提案する。
KUTomaDataと呼ばれる新しいトマトデータセットは、トマトのセグメンテーションと分類のためのディープラーニングモデルをトレーニングするために設計されている。
著者らは、この畳み込みトランスフォーマーがトマト成熟度分類の最先端手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-07-04T07:33:53Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - Detection of Tomato Ripening Stages using Yolov3-tiny [0.0]
トマトの分類と検出にはニューラルネットワークを用いたモデルを用いる。
実験の結果, カスタムデータセットにおける熟成段階の局在と分類において, f1スコアは90.0%であった。
論文 参考訳(メタデータ) (2023-02-01T00:57:58Z) - ProcTHOR: Large-Scale Embodied AI Using Procedural Generation [55.485985317538194]
ProcTHORは、Embodied AI環境の手続き的生成のためのフレームワークである。
ナビゲーション、アレンジメント、アーム操作のための6つの具体化されたAIベンチマークに対して、最先端の結果を実証する。
論文 参考訳(メタデータ) (2022-06-14T17:09:35Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Deep-CNN based Robotic Multi-Class Under-Canopy Weed Control in
Precision Farming [2.6085535710135654]
リアルタイム多クラス雑草識別は雑草の種特異的な処理を可能にし、除草剤の使用量を著しく減少させる。
本稿では,5つのベンチマークCNNモデルを用いた分類性能のベースラインを提案する。
我々はMobileNetV2を、リアルタイム雑草検出のためのコンパクトな自律ロボットTextitSAMBotにデプロイする。
論文 参考訳(メタデータ) (2021-12-28T03:51:55Z) - INVIGORATE: Interactive Visual Grounding and Grasping in Clutter [56.00554240240515]
INVIGORATEは、自然言語で人間と対話し、特定の物体をクラッタで把握するロボットシステムである。
我々は、物体検出、視覚的接地、質問生成、OBR検出と把握のために、別々のニューラルネットワークを訓練する。
我々は、学習したニューラルネットワークモジュールを統合する、部分的に観測可能なマルコフ決定プロセス(POMDP)を構築します。
論文 参考訳(メタデータ) (2021-08-25T07:35:21Z) - Geometry-Based Grasping of Vine Tomatoes [6.547498821163685]
ブドウトマトの形状に基づく把持方法を提案する。
トマトとトラス茎の幾何学的特徴を特定するためにコンピュータビジョンのパイプラインに依存している。
把握方法は、ロボットハンドとトラスの幾何学モデルを用いて、ステム上の適切な把握位置を決定する。
論文 参考訳(メタデータ) (2021-03-01T19:33:51Z) - Towards Palmprint Verification On Smartphones [62.279124220123286]
過去20年間の研究によると、ヤシの印刷物は独特性と永続性に優れた効果がある。
我々はスマートフォン用のDeepMPV+というDCNNベースのパームプリント検証システムを構築した。
DeepMPV+の効率と有効性は広範な実験によって裏付けられている。
論文 参考訳(メタデータ) (2020-03-30T08:31:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。