論文の概要: Crop Row Switching for Vision-Based Navigation: A Comprehensive Approach
for Efficient Crop Field Navigation
- arxiv url: http://arxiv.org/abs/2309.11989v1
- Date: Thu, 21 Sep 2023 12:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 15:39:20.413658
- Title: Crop Row Switching for Vision-Based Navigation: A Comprehensive Approach
for Efficient Crop Field Navigation
- Title(参考訳): 視覚に基づくナビゲーションのためのクロップロースイッチング:効率的なクロップフィールドナビゲーションのための総合的アプローチ
- Authors: Rajitha de Silva, Grzegorz Cielniak, Junfeng Gao
- Abstract要約: 本稿では,移動ロボットが耕作可能な作物の全領域をナビゲートできる,視覚に基づく作物列切替アルゴリズムを提案する。
提案手法では,深層学習に基づくRGB画像分割と深度データを用いて収穫行の終端を検出する。
このパイプラインのそれぞれの状態は、ロボットの視覚的フィードバックまたはホイール・オドメトリーを使用して、次の作物列に向かってうまくナビゲートする。
- 参考スコア(独自算出の注目度): 8.247245432569123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-based mobile robot navigation systems in arable fields are mostly
limited to in-row navigation. The process of switching from one crop row to the
next in such systems is often aided by GNSS sensors or multiple camera setups.
This paper presents a novel vision-based crop row-switching algorithm that
enables a mobile robot to navigate an entire field of arable crops using a
single front-mounted camera. The proposed row-switching manoeuvre uses deep
learning-based RGB image segmentation and depth data to detect the end of the
crop row, and re-entry point to the next crop row which would be used in a
multi-state row switching pipeline. Each state of this pipeline use visual
feedback or wheel odometry of the robot to successfully navigate towards the
next crop row. The proposed crop row navigation pipeline was tested in a real
sugar beet field containing crop rows with discontinuities, varying light
levels, shadows and irregular headland surfaces. The robot could successfully
exit from one crop row and re-enter the next crop row using the proposed
pipeline with absolute median errors averaging at 19.25 cm and 6.77{\deg} for
linear and rotational steps of the proposed manoeuvre.
- Abstract(参考訳): 視覚ベースの移動ロボットナビゲーションシステムは、ほとんどが列内ナビゲーションに制限されている。
そのようなシステムで作物の列から次の列に切り替えるプロセスは、しばしばngssセンサーや複数のカメラの設定によって支援される。
本稿では,1台のフロントマウントカメラを用いて,移動ロボットが耕作可能な作物の畑全体をナビゲートできる,視覚に基づく作物の行切り換えアルゴリズムを提案する。
提案手法では,深層学習に基づくRGB画像セグメンテーションと深度データを用いて作物列の終端を検出し,多状態行切替パイプラインで使用される次の作物列への再突入点を求める。
このパイプラインの各状態は、ロボットの視覚フィードバックまたはホイールオドメトリを使用して、次の作物列に向かってうまく移動します。
提案した作物列ナビゲーションパイプラインは,不連続な作物列,様々な光度,影,不規則な頭部表面を含む実のサトウキビ畑で試験された。
ロボットは1つの作物列から脱出し、提案されたパイプラインを使用して次の作物列に再突入し、提案された操作の線形および回転ステップに対して平均19.25cmおよび6.77{\deg}で絶対的な中央値誤差を発生させることができた。
関連論文リスト
- RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - Amirkabir campus dataset: Real-world challenges and scenarios of Visual
Inertial Odometry (VIO) for visually impaired people [3.7998592843098336]
上記の問題に対処し,ナビゲーションシステムを改善するために,Amirkabirキャンパスデータセット(AUT-VI)を導入する。
AUT-VIは17の異なる場所で126の異なる配列を持つ、新しくて超混成的なデータセットである。
進行中の開発作業のサポートとして、データキャプチャ用のAndroidアプリケーションを一般向けにリリースしました。
論文 参考訳(メタデータ) (2024-01-07T23:13:51Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - CWD30: A Comprehensive and Holistic Dataset for Crop Weed Recognition in
Precision Agriculture [1.64709990449384]
精密農業における作物雑草認識タスクに適した大規模・多種多様・包括的・階層的データセットであるCWD30データセットを提示する。
CWD30は20種の雑草と10種の高解像度画像を219,770枚以上、様々な成長段階、複数の視角、環境条件を含む。
データセットの階層的な分類は、きめ細かい分類を可能にし、より正確で堅牢で一般化可能なディープラーニングモデルの開発を促進する。
論文 参考訳(メタデータ) (2023-05-17T09:39:01Z) - Deep learning-based Crop Row Detection for Infield Navigation of
Agri-Robots [10.386591972977207]
本稿では、安価なカメラを用いて、フィールド変動に耐えられるロバストな作物列検出アルゴリズムを提案する。
複数の生育段階、光度、雑草密度の変化、曲がりくねった作物の列、不連続な作物の列からなる11のフィールド変動を表すサトウキビ画像のデータセットを作成した。
提案アルゴリズムは, 基準値よりも高いフィールド条件下で, 頑健な視覚に基づく作物の列検出を実証した。
論文 参考訳(メタデータ) (2022-09-09T12:47:24Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - Towards Space-to-Ground Data Availability for Agriculture Monitoring [0.0]
本稿では,クラウドソーシングプラットフォームであるMapillaryのストリートレベル画像とともに,Sentinel-1レーダとSentinel-2光画像時系列を含む地上空間データセットを提案する。
これらの異なるデータドメイン上で機械学習とディープラーニングのアルゴリズムをトレーニングし、意思決定の信頼性を高めるための融合技術の可能性を強調します。
論文 参考訳(メタデータ) (2022-05-16T14:35:48Z) - Towards Autonomous Crop-Agnostic Visual Navigation in Arable Fields [2.6323812778809907]
本稿では,視覚に基づくナビゲーション方式を導入し,ロボットを行グラフのフィールドから確実に誘導する手法を提案する。
新たな作物群検出技術と新しい作物群切替技術によって,ナビゲーション手法を幅広い分野に展開することが可能となった。
論文 参考訳(メタデータ) (2021-09-24T12:54:42Z) - GANav: Group-wise Attention Network for Classifying Navigable Regions in
Unstructured Outdoor Environments [54.21959527308051]
本稿では,RGB画像から,オフロード地形および非構造環境における安全かつ航行可能な領域を識別する新しい学習手法を提案する。
本手法は,粒度の粗いセマンティックセグメンテーションを用いて,そのナビビリティレベルに基づいて地形分類群を分類する。
RUGD と RELLIS-3D のデータセットを広範囲に評価することにより,我々の学習アルゴリズムがナビゲーションのためのオフロード地形における視覚知覚の精度を向上させることを示す。
論文 参考訳(メタデータ) (2021-03-07T02:16:24Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。