論文の概要: Lessons from Deploying CropFollow++: Under-Canopy Agricultural Navigation with Keypoints
- arxiv url: http://arxiv.org/abs/2404.17718v1
- Date: Fri, 26 Apr 2024 22:46:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 19:40:37.904857
- Title: Lessons from Deploying CropFollow++: Under-Canopy Agricultural Navigation with Keypoints
- Title(参考訳): CropFollow++のデプロイから学んだこと: キーポイント付きアンダーキャノピー農業ナビゲーション
- Authors: Arun N. Sivakumar, Mateus V. Gasparino, Michael McGuire, Vitor A. H. Higuti, M. Ugur Akcal, Girish Chowdhary,
- Abstract要約: セマンティックキーポイントを用いたアンダーキャノピー農業ロボットのための視覚に基づくナビゲーションシステムを提案する。
我々のシステムであるCropFollow++は、学習されたセマンティックキーポイント表現によるモジュラーおよび解釈可能な知覚アーキテクチャを導入している。
- 参考スコア(独自算出の注目度): 4.825377557319356
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a vision-based navigation system for under-canopy agricultural robots using semantic keypoints. Autonomous under-canopy navigation is challenging due to the tight spacing between the crop rows ($\sim 0.75$ m), degradation in RTK-GPS accuracy due to multipath error, and noise in LiDAR measurements from the excessive clutter. Our system, CropFollow++, introduces modular and interpretable perception architecture with a learned semantic keypoint representation. We deployed CropFollow++ in multiple under-canopy cover crop planting robots on a large scale (25 km in total) in various field conditions and we discuss the key lessons learned from this.
- Abstract(参考訳): セマンティックキーポイントを用いたアンダーキャノピー農業ロボットのための視覚に基づくナビゲーションシステムを提案する。
オートマチックアンダーキャノピーナビゲーションは、作物列間の密接な間隔(\sim 0.75$m)、マルチパス誤差によるRTK-GPSの精度の低下、過度なクラッタからのLiDAR測定におけるノイズにより困難である。
我々のシステムであるCropFollow++は、学習されたセマンティックキーポイント表現によるモジュラーおよび解釈可能な知覚アーキテクチャを導入している。
我々は,CropFollow++を多種多様な畑条件下で大規模(合計25km)に展開し,そこから得られた重要な教訓について考察した。
関連論文リスト
- Hyp2Nav: Hyperbolic Planning and Curiosity for Crowd Navigation [58.574464340559466]
我々は,群集ナビゲーションを実現するための双曲学習を提唱し,Hyp2Navを紹介した。
Hyp2Navは双曲幾何学の本質的な性質を活用し、ナビゲーションタスクにおける意思決定プロセスの階層的性質をよりよく符号化する。
本稿では, 効果的なソーシャルナビゲーション, 最高の成功率, 複数シミュレーション設定におけるリターンをもたらす, 双曲型ポリシーモデルと双曲型好奇性モジュールを提案する。
論文 参考訳(メタデータ) (2024-07-18T14:40:33Z) - Control Transformer: Robot Navigation in Unknown Environments through
PRM-Guided Return-Conditioned Sequence Modeling [0.0]
サンプルベース確率的ロードマッププランナによって導かれる低レベルポリシーから返却条件付きシーケンスをモデル化する制御変換器を提案する。
制御トランスフォーマーは迷路を通り、未知の環境へ移動できることを示す。
論文 参考訳(メタデータ) (2022-11-11T18:44:41Z) - How Does It Feel? Self-Supervised Costmap Learning for Off-Road Vehicle
Traversability [7.305104984234086]
オフロード環境における地形の移動性の推定には、ロボットとこれらの地形の間の複雑な相互作用のダイナミクスを推論する必要がある。
本研究では,外外環境情報と固有地形相互作用フィードバックを組み合わせることで,トラバーサビリティのコストマップを予測する手法を提案する。
論文 参考訳(メタデータ) (2022-09-22T05:18:35Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - Towards Autonomous Crop-Agnostic Visual Navigation in Arable Fields [2.6323812778809907]
本稿では,視覚に基づくナビゲーション方式を導入し,ロボットを行グラフのフィールドから確実に誘導する手法を提案する。
新たな作物群検出技術と新しい作物群切替技術によって,ナビゲーション手法を幅広い分野に展開することが可能となった。
論文 参考訳(メタデータ) (2021-09-24T12:54:42Z) - Large-scale Autonomous Flight with Real-time Semantic SLAM under Dense
Forest Canopy [48.51396198176273]
本研究では,大規模自律飛行とリアルタイムセマンティックマッピングを,挑戦的なアンダーキャノピー環境下で実現可能な統合システムを提案する。
我々は、スキャン全体で関連付けられ、木のトランクモデルと同様にロボットのポーズを制約するために使用されるLiDARデータから、木の幹と地面の平面を検出し、モデル化する。
ドリフト補償機構は、プランナー最適性とコントローラ安定性を維持しつつ、セマンティックSLAM出力を用いたドリフトをリアルタイムで最小化するように設計されている。
論文 参考訳(メタデータ) (2021-09-14T07:24:53Z) - Navigational Path-Planning For All-Terrain Autonomous Agricultural Robot [0.0]
本報告は農地の自律ナビゲーションのための新しいアルゴリズムの比較である。
インドの環境に特有な高解像度グリッドマップ表現について検討する。
その結果、自律的なフィールドナビゲーションとロボット経路計画の実現性にアルゴリズムが適用可能であることが証明された。
論文 参考訳(メタデータ) (2021-09-05T07:29:13Z) - Learned Visual Navigation for Under-Canopy Agricultural Robots [9.863749490361338]
本稿では,アンダーキャノピー型農業ロボットの自律走行を視覚的に案内するシステムについて述べる。
当社のCropFollowシステムは、平均して1回の介入で485mを自律走行することが可能です。
論文 参考訳(メタデータ) (2021-07-06T17:59:02Z) - BADGR: An Autonomous Self-Supervised Learning-Based Navigation System [158.6392333480079]
BadGRは、エンドツーエンドの学習ベースのモバイルロボットナビゲーションシステムである。
実際の環境で収集された、自己監督型のオフポリシーデータでトレーニングすることができる。
BadGRは、幾何学的に邪魔な障害物を伴って、現実世界の都市やオフロード環境をナビゲートすることができる。
論文 参考訳(メタデータ) (2020-02-13T18:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。