論文の概要: Towards Autonomous Crop-Agnostic Visual Navigation in Arable Fields
- arxiv url: http://arxiv.org/abs/2109.11936v1
- Date: Fri, 24 Sep 2021 12:54:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-27 20:49:04.340777
- Title: Towards Autonomous Crop-Agnostic Visual Navigation in Arable Fields
- Title(参考訳): 自律的作物非依存型視覚ナビゲーションに向けて
- Authors: Alireza Ahmadi, Michael Halstead, and Chris McCool
- Abstract要約: 本稿では,視覚に基づくナビゲーション方式を導入し,ロボットを行グラフのフィールドから確実に誘導する手法を提案する。
新たな作物群検出技術と新しい作物群切替技術によって,ナビゲーション手法を幅広い分野に展開することが可能となった。
- 参考スコア(独自算出の注目度): 2.6323812778809907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous navigation of a robot in agricultural fields is essential for
every task from crop monitoring through to weed management and fertilizer
application. Many current approaches rely on accurate GPS, however, such
technology is expensive and also prone to failure~(e.g. through lack of
coverage). As such, navigation through sensors that can interpret their
environment (such as cameras) is important to achieve the goal of autonomy in
agriculture. In this paper, we introduce a purely vision-based navigation
scheme which is able to reliably guide the robot through row-crop fields.
Independent of any global localization or mapping, this approach is able to
accurately follow the crop-rows and switch between the rows, only using
on-board cameras. With the help of a novel crop-row detection and a novel
crop-row switching technique, our navigation scheme can be deployed in a wide
range of fields with different canopy types in various growth stages. We have
extensively tested our approach in five different fields under various
illumination conditions using our agricultural robotic platform (BonnBot-I).
And our evaluations show that we have achieved a navigation accuracy of 3.82cm
over five different crop fields.
- Abstract(参考訳): 農業分野におけるロボットの自律的なナビゲーションは、作物のモニタリングから雑草管理や肥料の応用に至るまで、あらゆるタスクに不可欠である。
現在の多くのアプローチは正確なGPSに頼っているが、そのような技術は高価であり失敗する傾向がある。
そのため、農業における自律性の目標を達成するためには、カメラなどの環境を解釈できるセンサーによるナビゲーションが重要である。
本稿では,ロボットをロークロップフィールドに確実に誘導できる純粋に視覚に基づくナビゲーション方式を提案する。
グローバルローカライゼーションやマッピングとは無関係に、このアプローチでは、オンボードカメラのみを使用して、作物の列を正確に追跡し、行間を切り替えることができる。
新たな作物群検出技術と新しい作物群切り換え技術により, 様々な成長段階において, 異なる天蓋型を持つ広範囲の畑に, ナビゲーションスキームを展開できる。
我々は,農業用ロボットプラットフォーム(BonnBot-I)を用いて,照明条件の異なる5つの分野において,我々のアプローチを広範囲に検証した。
評価の結果,5つの異なる畑で3.82cmの航法精度を達成できた。
関連論文リスト
- AdaCropFollow: Self-Supervised Online Adaptation for Visual Under-Canopy Navigation [31.214318150001947]
アンダーキャノピー農業ロボットは、精密なモニタリング、スプレー、雑草、植物操作などの様々な応用を可能にする。
本稿では,視覚的基礎モデル,幾何学的事前,擬似ラベリングを用いて意味キーポイント表現を適応するための自己教師付きオンライン適応手法を提案する。
これにより、人間による介入を必要とせずに、畑や作物をまたがるアンダーキャノピーロボットの完全な自律的な行追尾が可能になる。
論文 参考訳(メタデータ) (2024-10-16T09:52:38Z) - Lessons from Deploying CropFollow++: Under-Canopy Agricultural Navigation with Keypoints [4.825377557319356]
セマンティックキーポイントを用いたアンダーキャノピー農業ロボットのための視覚に基づくナビゲーションシステムを提案する。
我々のシステムであるCropFollow++は、学習されたセマンティックキーポイント表現によるモジュラーおよび解釈可能な知覚アーキテクチャを導入している。
論文 参考訳(メタデータ) (2024-04-26T22:46:17Z) - A Vision-Based Navigation System for Arable Fields [7.338061223686544]
耕作地における視覚に基づくナビゲーションシステムは、農業用ロボットナビゲーションの未調査領域である。
現在のソリューションは、しばしば作物特有のものであり、照明や雑草密度といった限られた個々の条件に対処することを目的としている。
本稿では、安価な視覚センサを用いたディープラーニングに基づく認識アルゴリズムの集合体について提案する。
論文 参考訳(メタデータ) (2023-09-21T12:01:59Z) - Fast Traversability Estimation for Wild Visual Navigation [17.015268056925745]
トラバーサビリティ推定のためのオンライン自己教師型学習システムであるWild Visual Navigation (WVN)を提案する。
このシステムは、現場での短い人間のデモから継続的に適応することができる。
森林・公園・草地における挑戦的環境における実験・アブレーション研究によるアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-05-15T10:19:30Z) - Vision-based Vineyard Navigation Solution with Automatic Annotation [2.6013566739979463]
本研究では、ブドウ畑などの密作システムにおける農業ロボットのための視覚に基づく自律ナビゲーションフレームワークを提案する。
本稿では,RGB-D画像から直接経路トラバーシビリティ・ヒートマップを推定する新しい学習手法を提案する。
訓練された経路検出モデルを用いて、行追跡と行切替モジュールからなる完全なナビゲーションフレームワークを開発した。
論文 参考訳(メタデータ) (2023-03-25T03:37:17Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - BADGR: An Autonomous Self-Supervised Learning-Based Navigation System [158.6392333480079]
BadGRは、エンドツーエンドの学習ベースのモバイルロボットナビゲーションシステムである。
実際の環境で収集された、自己監督型のオフポリシーデータでトレーニングすることができる。
BadGRは、幾何学的に邪魔な障害物を伴って、現実世界の都市やオフロード環境をナビゲートすることができる。
論文 参考訳(メタデータ) (2020-02-13T18:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。