論文の概要: Deep learning-based Crop Row Following for Infield Navigation of
Agri-Robots
- arxiv url: http://arxiv.org/abs/2209.04278v1
- Date: Fri, 9 Sep 2022 12:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:22:08.449714
- Title: Deep learning-based Crop Row Following for Infield Navigation of
Agri-Robots
- Title(参考訳): アグリロボットのインフィールドナビゲーションのためのディープラーニングに基づく作物列追従
- Authors: Rajitha de Silva, Grzegorz Cielniak, Gang Wang, Junfeng Gao
- Abstract要約: 本稿では,耕作地における自律的ナビゲーションのためのロバストな作物列検出アルゴリズムを提案する。
サトウキビ画像のデータセットは、耕作畑で見られる11の畑の変種を43組み合わせて作成した。
我々のアルゴリズムは、作物の初期生育段階における最悪の性能を示した。
- 参考スコア(独自算出の注目度): 10.386591972977207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous navigation in agricultural environments is often challenged by
varying field conditions that may arise in arable fields. The state-of-the-art
solutions for autonomous navigation in these agricultural environments will
require expensive hardware such as RTK-GPS. This paper presents a robust crop
row detection algorithm that can withstand those variations while detecting
crop rows for visual servoing. A dataset of sugar beet images was created with
43 combinations of 11 field variations found in arable fields. The novel crop
row detection algorithm is tested both for the crop row detection performance
and also the capability of visual servoing along a crop row. The algorithm only
uses RGB images as input and a convolutional neural network was used to predict
crop row masks. Our algorithm outperformed the baseline method which uses
colour-based segmentation for all the combinations of field variations. We use
a combined performance indicator that accounts for the angular and displacement
errors of the crop row detection. Our algorithm exhibited the worst performance
during the early growth stages of the crop.
- Abstract(参考訳): 農業環境における自律航行は、耕作可能な畑で起こる様々なフィールド条件によってしばしば挑戦される。
これらの農業環境での自律ナビゲーションのための最先端のソリューションは、RTK-GPSのような高価なハードウェアを必要とする。
本稿では,視覚サーボのための作物列の検出を行いながら,その変動に耐えられるロバストな作物列検出アルゴリズムを提案する。
サトウキビ画像のデータセットは、耕作畑で見られる11の畑の変種を43組み合わせて作成した。
新規な作列検出アルゴリズムは、作列検出性能と、作列に沿って視覚サーボを行う能力の両方を試験する。
このアルゴリズムは入力としてRGB画像のみを使用し、畳み込みニューラルネットワークを使用して作物の列マスクを予測する。
本アルゴリズムは,色に基づくセグメンテーションをフィールド変動の組合せに用いたベースライン法よりも優れていた。
我々は,作物列検出の角および変位誤差を考慮に入れた性能指標を用いた。
我々のアルゴリズムは、作物の初期生育段階における最悪の性能を示した。
関連論文リスト
- Real-time object detection and robotic manipulation for agriculture
using a YOLO-based learning approach [8.482182765640022]
本研究では、畳み込みニューラルネットワーク(CNN)の2つの異なるアーキテクチャを組み合わせた新しいフレームワークを提案する。
シミュレーション環境でのクロップ画像は、ランダムな回転、収穫、明るさ、コントラスト調整を受け、データセット生成のための拡張画像を生成する。
提案手法は,ロボット操作の把握位置を明らかにするために,視覚幾何学グループモデルを用いて取得した画像データを利用する。
論文 参考訳(メタデータ) (2024-01-28T22:30:50Z) - OccNeRF: Self-Supervised Multi-Camera Occupancy Prediction with Neural
Radiance Fields [80.35807140179736]
自己監督型マルチカメラ占有率予測のためのOccNeRF法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成する。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Crop Row Switching for Vision-Based Navigation: A Comprehensive Approach
for Efficient Crop Field Navigation [8.247245432569123]
本稿では,移動ロボットが耕作可能な作物の全領域をナビゲートできる,視覚に基づく作物列切替アルゴリズムを提案する。
提案手法では,深層学習に基づくRGB画像分割と深度データを用いて収穫行の終端を検出する。
このパイプラインのそれぞれの状態は、ロボットの視覚的フィードバックまたはホイール・オドメトリーを使用して、次の作物列に向かってうまくナビゲートする。
論文 参考訳(メタデータ) (2023-09-21T12:01:59Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Vision based Crop Row Navigation under Varying Field Conditions in
Arable Fields [6.088167023055281]
そこで本研究では,サトウキビとトウモロコシの11種類の畑種を用いた作物列検出用データセットを提案する。
また,作物列フィールドにおける視覚サーボのための新しい作物列検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-28T11:23:34Z) - Towards Infield Navigation: leveraging simulated data for crop row
detection [6.088167023055281]
シミュレーションによって生成されたデータとともに、小さな実世界のデータセットの利用を提案し、大規模な実世界のデータセットで訓練されたモデルと同様の作物列検出性能を得る。
提案手法は,実世界データを用いて学習した深層学習に基づく作物列検出モデルの性能を60%低減した実世界データを用いて達成することができる。
論文 参考訳(メタデータ) (2022-04-04T19:28:30Z) - Towards agricultural autonomy: crop row detection under varying field
conditions using deep learning [4.252146169134215]
本稿では,深層学習に基づく作出行検出のためのセマンティックセマンティックセグメンテーション手法の堅牢性を評価するための新しい指標を提案する。
様々なフィールド条件下で遭遇する10のカテゴリのデータセットをテストに使用した。
これらの条件が作物列検出の角精度に及ぼす影響を比較検討した。
論文 参考訳(メタデータ) (2021-09-16T23:12:08Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z) - Refined Plane Segmentation for Cuboid-Shaped Objects by Leveraging Edge
Detection [63.942632088208505]
本稿では,セグメント化された平面マスクを画像に検出されたエッジと整列するための後処理アルゴリズムを提案する。
これにより、立方体形状の物体に制限を加えながら、最先端のアプローチの精度を高めることができます。
論文 参考訳(メタデータ) (2020-03-28T18:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。