論文の概要: Dataset and Performance Comparison of Deep Learning Architectures for
Plum Detection and Robotic Harvesting
- arxiv url: http://arxiv.org/abs/2105.03832v1
- Date: Sun, 9 May 2021 04:18:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 09:25:48.963673
- Title: Dataset and Performance Comparison of Deep Learning Architectures for
Plum Detection and Robotic Harvesting
- Title(参考訳): プラム検出とロボット収穫のためのディープラーニングアーキテクチャのデータセットと性能比較
- Authors: Jasper Brown, Salah Sukkarieh
- Abstract要約: 実際のロボット梅収穫システムの昼夜動作中に2つの新しいデータセットが収集される。
これらに対して、現在の世代のディープラーニングオブジェクト検出器をベンチマークする。
深度情報と画像情報を融合する2つの手法が検出器性能に与える影響を検証した。
- 参考スコア(独自算出の注目度): 3.7692411550925673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many automated operations in agriculture, such as weeding and plant counting,
require robust and accurate object detectors. Robotic fruit harvesting is one
of these, and is an important technology to address the increasing labour
shortages and uncertainty suffered by tree crop growers. An eye-in-hand sensing
setup is commonly used in harvesting systems and provides benefits to sensing
accuracy and flexibility. However, as the hand and camera move from viewing the
entire trellis to picking a specific fruit, large changes in lighting, colour,
obscuration and exposure occur. Object detection algorithms used in harvesting
should be robust to these challenges, but few datasets for assessing this
currently exist. In this work, two new datasets are gathered during day and
night operation of an actual robotic plum harvesting system. A range of current
generation deep learning object detectors are benchmarked against these.
Additionally, two methods for fusing depth and image information are tested for
their impact on detector performance. Significant differences between day and
night accuracy of different detectors is found, transfer learning is identified
as essential in all cases, and depth information fusion is assessed as only
marginally effective. The dataset and benchmark models are made available
online.
- Abstract(参考訳): 雑草や植物計数などの農業における多くの自動化された操作は、堅牢で正確な物体検出器を必要とする。
ロボットによる果樹収穫は、その1つであり、樹木栽培者による労働不足と不確実性に対処するための重要な技術である。
アイ・イン・ハンド・センシング・セットアップは、収穫システムで一般的に使われ、精度と柔軟性を感知する利点を提供する。
しかし、手とカメラがトレリス全体を見ることから特定の果実を摘むことに移行すると、照明、色、ぼけ、露出が大きく変化する。
収穫に使用されるオブジェクト検出アルゴリズムはこれらの課題に対して堅牢であるべきですが、現在それを評価するデータセットはほとんどありません。
本研究では,実際のロボット梅収穫システムの昼夜動作中に2つの新しいデータセットを収集する。
これらに対して、現在の世代のディープラーニングオブジェクト検出器をベンチマークする。
さらに,検出性能に影響を及ぼすため,深度と画像情報を融合する2つの方法が試験された。
異なる検出器の昼夜の精度に重要な違いが見出され、転送学習はすべてのケースにおいて必須であり、深度情報融合はわずかに有効であると評価される。
データセットとベンチマークモデルはオンラインで利用可能である。
関連論文リスト
- Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Assaying on the Robustness of Zero-Shot Machine-Generated Text Detectors [57.7003399760813]
先進的なLarge Language Models (LLMs) とその特殊な変種を探索し、いくつかの方法でこの分野に寄与する。
トピックと検出性能の間に有意な相関関係が発見された。
これらの調査は、様々なトピックにまたがるこれらの検出手法の適応性と堅牢性に光を当てた。
論文 参考訳(メタデータ) (2023-12-20T10:53:53Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Agricultural Plant Cataloging and Establishment of a Data Framework from
UAV-based Crop Images by Computer Vision [4.0382342610484425]
本稿では,UAVからの収穫画像の時間的・空間的識別と識別を自動化するための手動ワークフローを提案する。
提案手法は農業におけるUAVデータの分析と解釈を大幅に改善する。
論文 参考訳(メタデータ) (2022-01-08T21:14:07Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks [25.838878314196375]
異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
論文 参考訳(メタデータ) (2021-04-23T18:58:37Z) - A Robust Illumination-Invariant Camera System for Agricultural
Applications [7.349727826230863]
オブジェクト検出とセマンティックセグメンテーションは、農業アプリケーションで最も広く採用されているディープラーニングアルゴリズムの2つです。
我々は,全ての照明条件下で一貫した画像を生成する,高スループットな能動照明カメラシステムを提案する。
平均して、オブジェクト検出のためのディープネットは、一貫性のあるデータで訓練され、同様の精度を達成するために4倍近いデータを必要としました。
論文 参考訳(メタデータ) (2021-01-06T18:50:53Z) - Few-Shot Object Detection in Real Life: Case Study on Auto-Harvest [26.119977579845614]
新型コロナウイルス(COVID-19)による抑留は、世界中の農業に深刻な影響を及ぼしている。
オートハーベストシステムでは、堅牢な少数ショットオブジェクト検出モデルがボトルネックの1つである。
本稿では、新しいキュウリデータセットを提案し、コンテキストギャップをブリッジする2つのデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2020-11-05T09:24:33Z) - Comparison of object detection methods for crop damage assessment using
deep learning [0.0]
本研究の目的は、コンピュータビジョンと深層学習技術を用いて、空中画像から損傷した作物の面積を検知する概念実証である。
RGBカメラを搭載した無人航空システム(UAS)が画像取得に使用された。
3つの人気の物体検出器(Faster R-CNN, YOLOv2, RetinaNet)は、フィールド内の損傷領域を検出する能力について評価された。
YOLOv2とRetinaNetは、複数の後期季節成長段階にわたって作物の損傷を検出することができた。
論文 参考訳(メタデータ) (2019-12-31T06:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。