論文の概要: Deep learning-based Crop Row Following for Infield Navigation of
Agri-Robots
- arxiv url: http://arxiv.org/abs/2209.04278v1
- Date: Fri, 9 Sep 2022 12:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:22:08.449714
- Title: Deep learning-based Crop Row Following for Infield Navigation of
Agri-Robots
- Title(参考訳): アグリロボットのインフィールドナビゲーションのためのディープラーニングに基づく作物列追従
- Authors: Rajitha de Silva, Grzegorz Cielniak, Gang Wang, Junfeng Gao
- Abstract要約: 本稿では,耕作地における自律的ナビゲーションのためのロバストな作物列検出アルゴリズムを提案する。
サトウキビ画像のデータセットは、耕作畑で見られる11の畑の変種を43組み合わせて作成した。
我々のアルゴリズムは、作物の初期生育段階における最悪の性能を示した。
- 参考スコア(独自算出の注目度): 10.386591972977207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous navigation in agricultural environments is often challenged by
varying field conditions that may arise in arable fields. The state-of-the-art
solutions for autonomous navigation in these agricultural environments will
require expensive hardware such as RTK-GPS. This paper presents a robust crop
row detection algorithm that can withstand those variations while detecting
crop rows for visual servoing. A dataset of sugar beet images was created with
43 combinations of 11 field variations found in arable fields. The novel crop
row detection algorithm is tested both for the crop row detection performance
and also the capability of visual servoing along a crop row. The algorithm only
uses RGB images as input and a convolutional neural network was used to predict
crop row masks. Our algorithm outperformed the baseline method which uses
colour-based segmentation for all the combinations of field variations. We use
a combined performance indicator that accounts for the angular and displacement
errors of the crop row detection. Our algorithm exhibited the worst performance
during the early growth stages of the crop.
- Abstract(参考訳): 農業環境における自律航行は、耕作可能な畑で起こる様々なフィールド条件によってしばしば挑戦される。
これらの農業環境での自律ナビゲーションのための最先端のソリューションは、RTK-GPSのような高価なハードウェアを必要とする。
本稿では,視覚サーボのための作物列の検出を行いながら,その変動に耐えられるロバストな作物列検出アルゴリズムを提案する。
サトウキビ画像のデータセットは、耕作畑で見られる11の畑の変種を43組み合わせて作成した。
新規な作列検出アルゴリズムは、作列検出性能と、作列に沿って視覚サーボを行う能力の両方を試験する。
このアルゴリズムは入力としてRGB画像のみを使用し、畳み込みニューラルネットワークを使用して作物の列マスクを予測する。
本アルゴリズムは,色に基づくセグメンテーションをフィールド変動の組合せに用いたベースライン法よりも優れていた。
我々は,作物列検出の角および変位誤差を考慮に入れた性能指標を用いた。
我々のアルゴリズムは、作物の初期生育段階における最悪の性能を示した。
関連論文リスト
- Real-time object detection and robotic manipulation for agriculture
using a YOLO-based learning approach [8.482182765640022]
本研究では、畳み込みニューラルネットワーク(CNN)の2つの異なるアーキテクチャを組み合わせた新しいフレームワークを提案する。
シミュレーション環境でのクロップ画像は、ランダムな回転、収穫、明るさ、コントラスト調整を受け、データセット生成のための拡張画像を生成する。
提案手法は,ロボット操作の把握位置を明らかにするために,視覚幾何学グループモデルを用いて取得した画像データを利用する。
論文 参考訳(メタデータ) (2024-01-28T22:30:50Z) - A Vision-Based Navigation System for Arable Fields [7.338061223686544]
耕作地における視覚に基づくナビゲーションシステムは、農業用ロボットナビゲーションの未調査領域である。
現在のソリューションは、しばしば作物特有のものであり、照明や雑草密度といった限られた個々の条件に対処することを目的としている。
本稿では、安価な視覚センサを用いたディープラーニングに基づく認識アルゴリズムの集合体について提案する。
論文 参考訳(メタデータ) (2023-09-21T12:01:59Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Domain Adaptive Scene Text Detection via Subcategorization [45.580559833129165]
ドメイン適応型シーンテキストの検出について検討する。
我々は、ネットワーク過度に適合し、ノイズの多い擬似ラベルを緩和する、サブカテゴリ対応の自己学習技術であるSCASTを設計する。
SCASTは、複数の公開ベンチマークで一貫して優れた検出性能を達成する。
論文 参考訳(メタデータ) (2022-12-01T09:15:43Z) - Vision based Crop Row Navigation under Varying Field Conditions in
Arable Fields [6.088167023055281]
そこで本研究では,サトウキビとトウモロコシの11種類の畑種を用いた作物列検出用データセットを提案する。
また,作物列フィールドにおける視覚サーボのための新しい作物列検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-28T11:23:34Z) - Towards Infield Navigation: leveraging simulated data for crop row
detection [6.088167023055281]
シミュレーションによって生成されたデータとともに、小さな実世界のデータセットの利用を提案し、大規模な実世界のデータセットで訓練されたモデルと同様の作物列検出性能を得る。
提案手法は,実世界データを用いて学習した深層学習に基づく作物列検出モデルの性能を60%低減した実世界データを用いて達成することができる。
論文 参考訳(メタデータ) (2022-04-04T19:28:30Z) - Towards agricultural autonomy: crop row detection under varying field
conditions using deep learning [4.252146169134215]
本稿では,深層学習に基づく作出行検出のためのセマンティックセマンティックセグメンテーション手法の堅牢性を評価するための新しい指標を提案する。
様々なフィールド条件下で遭遇する10のカテゴリのデータセットをテストに使用した。
これらの条件が作物列検出の角精度に及ぼす影響を比較検討した。
論文 参考訳(メタデータ) (2021-09-16T23:12:08Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z) - Refined Plane Segmentation for Cuboid-Shaped Objects by Leveraging Edge
Detection [63.942632088208505]
本稿では,セグメント化された平面マスクを画像に検出されたエッジと整列するための後処理アルゴリズムを提案する。
これにより、立方体形状の物体に制限を加えながら、最先端のアプローチの精度を高めることができます。
論文 参考訳(メタデータ) (2020-03-28T18:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。