論文の概要: Learned Visual Navigation for Under-Canopy Agricultural Robots
- arxiv url: http://arxiv.org/abs/2107.02792v1
- Date: Tue, 6 Jul 2021 17:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 14:03:08.817711
- Title: Learned Visual Navigation for Under-Canopy Agricultural Robots
- Title(参考訳): キャノピー型農業ロボットのための学習視覚ナビゲーション
- Authors: Arun Narenthiran Sivakumar and Sahil Modi and Mateus Valverde
Gasparino and Che Ellis and Andres Eduardo Baquero Velasquez and Girish
Chowdhary and Saurabh Gupta
- Abstract要約: 本稿では,アンダーキャノピー型農業ロボットの自律走行を視覚的に案内するシステムについて述べる。
当社のCropFollowシステムは、平均して1回の介入で485mを自律走行することが可能です。
- 参考スコア(独自算出の注目度): 9.863749490361338
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We describe a system for visually guided autonomous navigation of
under-canopy farm robots. Low-cost under-canopy robots can drive between crop
rows under the plant canopy and accomplish tasks that are infeasible for
over-the-canopy drones or larger agricultural equipment. However, autonomously
navigating them under the canopy presents a number of challenges: unreliable
GPS and LiDAR, high cost of sensing, challenging farm terrain, clutter due to
leaves and weeds, and large variability in appearance over the season and
across crop types. We address these challenges by building a modular system
that leverages machine learning for robust and generalizable perception from
monocular RGB images from low-cost cameras, and model predictive control for
accurate control in challenging terrain. Our system, CropFollow, is able to
autonomously drive 485 meters per intervention on average, outperforming a
state-of-the-art LiDAR based system (286 meters per intervention) in extensive
field testing spanning over 25 km.
- Abstract(参考訳): 本研究は, 農業用ロボットの視覚誘導自律ナビゲーションシステムについて述べる。
低コストのアンダーキャノピーロボットは、植物キャノピーの下にある作物の列の間を走行し、過剰なキャノピードローンや大型農業機器では不可能なタスクを達成できる。
しかし、キャノピーの下での自律的な移動には、信頼性の低いgpsとlidar、センシングのコストの高騰、農地への挑戦、葉や雑草による雑草、季節や作物の種類による外観の変化など、多くの課題がある。
これらの課題に対処するために,低コストカメラからの単眼RGB画像からの堅牢で一般化可能な認識に機械学習を活用するモジュールシステムを構築し,挑戦的な地形における正確な制御のための予測制御をモデル化する。
当社のシステムであるCropFollowは、25kmを超える広範囲なフィールドテストにおいて、最先端のLiDARベースシステム(286m)よりも優れた、介入1回あたり485mの自律走行を実現しています。
関連論文リスト
- AdaCropFollow: Self-Supervised Online Adaptation for Visual Under-Canopy Navigation [31.214318150001947]
アンダーキャノピー農業ロボットは、精密なモニタリング、スプレー、雑草、植物操作などの様々な応用を可能にする。
本稿では,視覚的基礎モデル,幾何学的事前,擬似ラベリングを用いて意味キーポイント表現を適応するための自己教師付きオンライン適応手法を提案する。
これにより、人間による介入を必要とせずに、畑や作物をまたがるアンダーキャノピーロボットの完全な自律的な行追尾が可能になる。
論文 参考訳(メタデータ) (2024-10-16T09:52:38Z) - Lessons from Deploying CropFollow++: Under-Canopy Agricultural Navigation with Keypoints [4.825377557319356]
セマンティックキーポイントを用いたアンダーキャノピー農業ロボットのための視覚に基づくナビゲーションシステムを提案する。
我々のシステムであるCropFollow++は、学習されたセマンティックキーポイント表現によるモジュラーおよび解釈可能な知覚アーキテクチャを導入している。
論文 参考訳(メタデータ) (2024-04-26T22:46:17Z) - Multi-model fusion for Aerial Vision and Dialog Navigation based on
human attention aids [69.98258892165767]
本稿では,2023年ICCV会話史のための航空航法課題について述べる。
本稿では,人間注意支援型トランスフォーマモデル(HAA-Transformer)と人間注意支援型LSTMモデル(HAA-LSTM)の融合訓練方法を提案する。
論文 参考訳(メタデータ) (2023-08-27T10:32:52Z) - Fast Traversability Estimation for Wild Visual Navigation [17.015268056925745]
トラバーサビリティ推定のためのオンライン自己教師型学習システムであるWild Visual Navigation (WVN)を提案する。
このシステムは、現場での短い人間のデモから継続的に適応することができる。
森林・公園・草地における挑戦的環境における実験・アブレーション研究によるアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-05-15T10:19:30Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - How Does It Feel? Self-Supervised Costmap Learning for Off-Road Vehicle
Traversability [7.305104984234086]
オフロード環境における地形の移動性の推定には、ロボットとこれらの地形の間の複雑な相互作用のダイナミクスを推論する必要がある。
本研究では,外外環境情報と固有地形相互作用フィードバックを組み合わせることで,トラバーサビリティのコストマップを予測する手法を提案する。
論文 参考訳(メタデータ) (2022-09-22T05:18:35Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Towards Autonomous Crop-Agnostic Visual Navigation in Arable Fields [2.6323812778809907]
本稿では,視覚に基づくナビゲーション方式を導入し,ロボットを行グラフのフィールドから確実に誘導する手法を提案する。
新たな作物群検出技術と新しい作物群切替技術によって,ナビゲーション手法を幅広い分野に展開することが可能となった。
論文 参考訳(メタデータ) (2021-09-24T12:54:42Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z) - Active Perception with A Monocular Camera for Multiscopic Vision [50.370074098619185]
低コストの単眼RGBカメラを用いてロボットアプリケーションの正確な深度推定を行うマルチスコープビジョンシステムの設計を行う。
制約のないカメラポーズで撮影された画像を持つマルチビューステレオとは異なり、提案システムはカメラを搭載したロボットアームを積極的に制御し、水平または垂直に並んだ位置の画像を同じパララックスで撮影する。
論文 参考訳(メタデータ) (2020-01-22T08:46:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。