論文の概要: TOP-Nav: Legged Navigation Integrating Terrain, Obstacle and Proprioception Estimation
- arxiv url: http://arxiv.org/abs/2404.15256v3
- Date: Fri, 12 Jul 2024 09:12:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 04:47:43.035643
- Title: TOP-Nav: Legged Navigation Integrating Terrain, Obstacle and Proprioception Estimation
- Title(参考訳): TOP-Nav:Terrin, Obstacle, Proprioception Estimationを統合した脚付きナビゲーション
- Authors: Junli Ren, Yikai Liu, Yingru Dai, Junfeng Long, Guijin Wang,
- Abstract要約: TOP-Navは、包括的パスプランナーとTerran認識、Obstacle回避、クローズループプロプライオセプションを統合した、新しい脚付きナビゲーションフレームワークである。
そこで,TOP-Navは,従来の知識の分布を超えた地形や乱れをロボットが扱えるように,オープンワールドナビゲーションを実現する。
- 参考スコア(独自算出の注目度): 5.484041860401147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Legged navigation is typically examined within open-world, off-road, and challenging environments. In these scenarios, estimating external disturbances requires a complex synthesis of multi-modal information. This underlines a major limitation in existing works that primarily focus on avoiding obstacles. In this work, we propose TOP-Nav, a novel legged navigation framework that integrates a comprehensive path planner with Terrain awareness, Obstacle avoidance and close-loop Proprioception. TOP-Nav underscores the synergies between vision and proprioception in both path and motion planning. Within the path planner, we present and integrate a terrain estimator that enables the robot to select waypoints on terrains with higher traversability while effectively avoiding obstacles. In the motion planning level, we not only implement a locomotion controller to track the navigation commands, but also construct a proprioception advisor to provide motion evaluations for the path planner. Based on the close-loop motion feedback, we make online corrections for the vision-based terrain and obstacle estimations. Consequently, TOP-Nav achieves open-world navigation that the robot can handle terrains or disturbances beyond the distribution of prior knowledge and overcomes constraints imposed by visual conditions. Building upon extensive experiments conducted in both simulation and real-world environments, TOP-Nav demonstrates superior performance in open-world navigation compared to existing methods.
- Abstract(参考訳): 脚のついたナビゲーションは通常、オープンワールド、オフロード、挑戦的な環境で検査される。
これらのシナリオでは、外乱を推定するには、多重モーダル情報の複雑な合成が必要である。
これは、主に障害を避けることに焦点を当てた既存の作業において、大きな制限となる。
本研究では,包括的パスプランナとTerrain認識,Obstacle回避,クローズループプロプライオセプションを統合した新しい脚付きナビゲーションフレームワークTOP-Navを提案する。
TOP-Navは、経路計画と運動計画の両方において、視覚とプロプレセプションの相乗効果を強調している。
経路プランナ内では、障害物を効果的に回避しつつ、高い走行性を有する地形上の経路をロボットが選択できる地形推定器を提示し、統合する。
動作計画レベルでは、ナビゲーションコマンドを追跡するために移動制御器を実装できるだけでなく、経路プランナーに動作評価を提供するための受容アドバイザも構築する。
クローズループ動作フィードバックに基づいて、視覚に基づく地形と障害物推定のオンライン修正を行う。
そのため、TOP-Navは、ロボットが以前の知識の分布を超えて地形や乱れを扱えるように、オープンワールドナビゲーションを実現し、視覚条件によって課される制約を克服する。
TOP-Navは、シミュレーションと実世界の環境の両方で実施された広範な実験に基づいて、既存の手法と比較して、オープンワールドナビゲーションにおいて優れた性能を示す。
関連論文リスト
- IN-Sight: Interactive Navigation through Sight [20.184155117341497]
IN-Sightは自己監督型パスプランニングの新しいアプローチである。
可逆性のスコアを計算し、セマンティックマップに組み込む。
障害物を正確に回避するために、IN-Sightはローカルプランナーを使用している。
論文 参考訳(メタデータ) (2024-08-01T07:27:54Z) - Learning Robust Autonomous Navigation and Locomotion for Wheeled-Legged Robots [50.02055068660255]
都市環境のナビゲーションは、ロボットにとってユニークな課題であり、移動とナビゲーションのための革新的なソリューションを必要としている。
本研究は, 適応移動制御, 移動対応ローカルナビゲーション計画, 市内の大規模経路計画を含む, 完全に統合されたシステムを導入する。
モデルフリー強化学習(RL)技術と特権学習を用いて,多目的移動制御系を開発した。
私たちのコントローラーは大規模な都市航法システムに統合され、スイスのチューリッヒとスペインのセビリアで自律的、キロメートル規模の航法ミッションによって検証されます。
論文 参考訳(メタデータ) (2024-05-03T00:29:20Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - Holistic Deep-Reinforcement-Learning-based Training of Autonomous
Navigation Systems [4.409836695738518]
Deep Reinforcement Learningは、地上車両の自律的なナビゲーションのための有望なアプローチとして登場した。
本稿では,ナビゲーションスタックの全要素を含む総合的な深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:52:15Z) - Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision [13.478275180547925]
視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
論文 参考訳(メタデータ) (2022-08-17T18:38:20Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。