論文の概要: Crop Row Switching for Vision-Based Navigation: A Comprehensive Approach
for Efficient Crop Field Navigation
- arxiv url: http://arxiv.org/abs/2309.11989v1
- Date: Thu, 21 Sep 2023 12:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 15:39:20.413658
- Title: Crop Row Switching for Vision-Based Navigation: A Comprehensive Approach
for Efficient Crop Field Navigation
- Title(参考訳): 視覚に基づくナビゲーションのためのクロップロースイッチング:効率的なクロップフィールドナビゲーションのための総合的アプローチ
- Authors: Rajitha de Silva, Grzegorz Cielniak, Junfeng Gao
- Abstract要約: 本稿では,移動ロボットが耕作可能な作物の全領域をナビゲートできる,視覚に基づく作物列切替アルゴリズムを提案する。
提案手法では,深層学習に基づくRGB画像分割と深度データを用いて収穫行の終端を検出する。
このパイプラインのそれぞれの状態は、ロボットの視覚的フィードバックまたはホイール・オドメトリーを使用して、次の作物列に向かってうまくナビゲートする。
- 参考スコア(独自算出の注目度): 8.247245432569123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-based mobile robot navigation systems in arable fields are mostly
limited to in-row navigation. The process of switching from one crop row to the
next in such systems is often aided by GNSS sensors or multiple camera setups.
This paper presents a novel vision-based crop row-switching algorithm that
enables a mobile robot to navigate an entire field of arable crops using a
single front-mounted camera. The proposed row-switching manoeuvre uses deep
learning-based RGB image segmentation and depth data to detect the end of the
crop row, and re-entry point to the next crop row which would be used in a
multi-state row switching pipeline. Each state of this pipeline use visual
feedback or wheel odometry of the robot to successfully navigate towards the
next crop row. The proposed crop row navigation pipeline was tested in a real
sugar beet field containing crop rows with discontinuities, varying light
levels, shadows and irregular headland surfaces. The robot could successfully
exit from one crop row and re-enter the next crop row using the proposed
pipeline with absolute median errors averaging at 19.25 cm and 6.77{\deg} for
linear and rotational steps of the proposed manoeuvre.
- Abstract(参考訳): 視覚ベースの移動ロボットナビゲーションシステムは、ほとんどが列内ナビゲーションに制限されている。
そのようなシステムで作物の列から次の列に切り替えるプロセスは、しばしばngssセンサーや複数のカメラの設定によって支援される。
本稿では,1台のフロントマウントカメラを用いて,移動ロボットが耕作可能な作物の畑全体をナビゲートできる,視覚に基づく作物の行切り換えアルゴリズムを提案する。
提案手法では,深層学習に基づくRGB画像セグメンテーションと深度データを用いて作物列の終端を検出し,多状態行切替パイプラインで使用される次の作物列への再突入点を求める。
このパイプラインの各状態は、ロボットの視覚フィードバックまたはホイールオドメトリを使用して、次の作物列に向かってうまく移動します。
提案した作物列ナビゲーションパイプラインは,不連続な作物列,様々な光度,影,不規則な頭部表面を含む実のサトウキビ畑で試験された。
ロボットは1つの作物列から脱出し、提案されたパイプラインを使用して次の作物列に再突入し、提案された操作の線形および回転ステップに対して平均19.25cmおよび6.77{\deg}で絶対的な中央値誤差を発生させることができた。
関連論文リスト
- Leaving the Lines Behind: Vision-Based Crop Row Exit for Agricultural
Robot Navigation [6.088167023055281]
提案手法は作物列の端に到達し,50cmの誤差で作物列の後方に完全に残すことができる。
論文 参考訳(メタデータ) (2023-06-09T13:02:31Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Vision-based Vineyard Navigation Solution with Automatic Annotation [2.6013566739979463]
本研究では、ブドウ畑などの密作システムにおける農業ロボットのための視覚に基づく自律ナビゲーションフレームワークを提案する。
本稿では,RGB-D画像から直接経路トラバーシビリティ・ヒートマップを推定する新しい学習手法を提案する。
訓練された経路検出モデルを用いて、行追跡と行切替モジュールからなる完全なナビゲーションフレームワークを開発した。
論文 参考訳(メタデータ) (2023-03-25T03:37:17Z) - DeepLSD: Line Segment Detection and Refinement with Deep Image Gradients [105.25109274550607]
ラインセグメントは、視覚タスクでますます使われています。
画像勾配に基づく従来の線検出器は非常に高速で精度が高いが、ノイズの多い画像や困難な条件では頑丈さに欠ける。
我々は、両方の世界を最大限に活用するために、伝統的なアプローチと学習されたアプローチを組み合わせることを提案する。
論文 参考訳(メタデータ) (2022-12-15T12:36:49Z) - Construction of Object Boundaries for the Autopilotof a Surface Robot
from Satellite Imagesusing Computer Vision Methods [101.18253437732933]
衛星地図上での水物体を検出する手法を提案する。
輪郭のGPS座標を計算するアルゴリズムを作成する。
提案アルゴリズムは,表面ロボットオートパイロットモジュールに適したフォーマットで結果の保存を可能にする。
論文 参考訳(メタデータ) (2022-12-05T12:07:40Z) - RGB-Only Reconstruction of Tabletop Scenes for Collision-Free
Manipulator Control [71.51781695764872]
世界のRGBビューのみを用いたロボットマニピュレータの無衝突制御システムを提案する。
テーブルトップシーンの知覚入力は、ロボットエンドエフェクタにハンドヘルドまたは装着されたRGBカメラの複数の画像によって提供される。
シーンの3次元形状を再構成するために、NeRFのようなプロセスが使用され、そこからユークリッド完全符号距離関数(ESDF)が計算される。
次に、モデル予測制御アルゴリズムを用いてマニピュレータを制御し、ESDFの障害物を避けながら所望のポーズに達する。
論文 参考訳(メタデータ) (2022-10-21T01:45:08Z) - Vision based Crop Row Navigation under Varying Field Conditions in
Arable Fields [6.088167023055281]
そこで本研究では,サトウキビとトウモロコシの11種類の畑種を用いた作物列検出用データセットを提案する。
また,作物列フィールドにおける視覚サーボのための新しい作物列検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-28T11:23:34Z) - Deep learning-based Crop Row Detection for Infield Navigation of
Agri-Robots [10.386591972977207]
本稿では、安価なカメラを用いて、フィールド変動に耐えられるロバストな作物列検出アルゴリズムを提案する。
複数の生育段階、光度、雑草密度の変化、曲がりくねった作物の列、不連続な作物の列からなる11のフィールド変動を表すサトウキビ画像のデータセットを作成した。
提案アルゴリズムは, 基準値よりも高いフィールド条件下で, 頑健な視覚に基づく作物の列検出を実証した。
論文 参考訳(メタデータ) (2022-09-09T12:47:24Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - Towards agricultural autonomy: crop row detection under varying field
conditions using deep learning [4.252146169134215]
本稿では,深層学習に基づく作出行検出のためのセマンティックセマンティックセグメンテーション手法の堅牢性を評価するための新しい指標を提案する。
様々なフィールド条件下で遭遇する10のカテゴリのデータセットをテストに使用した。
これらの条件が作物列検出の角精度に及ぼす影響を比較検討した。
論文 参考訳(メタデータ) (2021-09-16T23:12:08Z) - FOVEA: Foveated Image Magnification for Autonomous Navigation [53.69803081925454]
入力キャンバスを小さく保ちながら、ある領域を弾性的に拡大する注意的アプローチを提案する。
提案手法は,高速R-CNNより高速かつ微調整の少ない検出APを高速化する。
Argoverse-HD と BDD100K の自律走行データセットでは,提案手法が標準の高速 R-CNN を超越した検出APを微調整なしで促進することを示す。
論文 参考訳(メタデータ) (2021-08-27T03:07:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。