論文の概要: Coupling Vision and Proprioception for Navigation of Legged Robots
- arxiv url: http://arxiv.org/abs/2112.02094v1
- Date: Fri, 3 Dec 2021 18:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 14:33:49.968410
- Title: Coupling Vision and Proprioception for Navigation of Legged Robots
- Title(参考訳): 足ロボットのナビゲーションにおける視覚と受入の結合
- Authors: Zipeng Fu, Ashish Kumar, Ananye Agarwal, Haozhi Qi, Jitendra Malik,
Deepak Pathak
- Abstract要約: 我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
- 参考スコア(独自算出の注目度): 65.59559699815512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We exploit the complementary strengths of vision and proprioception to
achieve point goal navigation in a legged robot. Legged systems are capable of
traversing more complex terrain than wheeled robots, but to fully exploit this
capability, we need the high-level path planner in the navigation system to be
aware of the walking capabilities of the low-level locomotion policy on varying
terrains. We achieve this by using proprioceptive feedback to estimate the safe
operating limits of the walking policy, and to sense unexpected obstacles and
terrain properties like smoothness or softness of the ground that may be missed
by vision. The navigation system uses onboard cameras to generate an occupancy
map and a corresponding cost map to reach the goal. The FMM (Fast Marching
Method) planner then generates a target path. The velocity command generator
takes this as input to generate the desired velocity for the locomotion policy
using as input additional constraints, from the safety advisor, of unexpected
obstacles and terrain determined speed limits. We show superior performance
compared to wheeled robot (LoCoBot) baselines, and other baselines which have
disjoint high-level planning and low-level control. We also show the real-world
deployment of our system on a quadruped robot with onboard sensors and compute.
Videos at https://navigation-locomotion.github.io/camera-ready
- Abstract(参考訳): 我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
脚付きシステムは車輪付きロボットよりも複雑な地形を横断することができるが、この能力を完全に活用するには、様々な地形における低レベルの移動ポリシーの歩行能力を認識するために、ナビゲーションシステムの高レベルパスプランナーが必要である。
そこで本研究では,歩行方針の安全な動作限界を推定し,不測の障害物や地盤の滑らかさや柔らかさなどの地形特性を視覚で見落とせるよう,固有フィードバックを用いて推定する。
ナビゲーションシステムは、オンボードカメラを使用して占有率マップと対応するコストマップを生成し、目標を達成する。
FMM(Fast Marching Method)プランナーがターゲットパスを生成する。
速度指令生成装置は、これを入力として、予期しない障害物及び地形決定速度制限の安全アドバイザーからの入力追加制約として、移動ポリシーの所望の速度を生成する。
車輪付きロボット(LoCoBot)のベースラインや,高レベル計画と低レベル制御に相反する他のベースラインと比較して,優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
https://navigation-locomotion.github.io/camera-ready
関連論文リスト
- Hyp2Nav: Hyperbolic Planning and Curiosity for Crowd Navigation [58.574464340559466]
我々は,群集ナビゲーションを実現するための双曲学習を提唱し,Hyp2Navを紹介した。
Hyp2Navは双曲幾何学の本質的な性質を活用し、ナビゲーションタスクにおける意思決定プロセスの階層的性質をよりよく符号化する。
本稿では, 効果的なソーシャルナビゲーション, 最高の成功率, 複数シミュレーション設定におけるリターンをもたらす, 双曲型ポリシーモデルと双曲型好奇性モジュールを提案する。
論文 参考訳(メタデータ) (2024-07-18T14:40:33Z) - Learning Robust Autonomous Navigation and Locomotion for Wheeled-Legged Robots [50.02055068660255]
都市環境のナビゲーションは、ロボットにとってユニークな課題であり、移動とナビゲーションのための革新的なソリューションを必要としている。
本研究は, 適応移動制御, 移動対応ローカルナビゲーション計画, 市内の大規模経路計画を含む, 完全に統合されたシステムを導入する。
モデルフリー強化学習(RL)技術と特権学習を用いて,多目的移動制御系を開発した。
私たちのコントローラーは大規模な都市航法システムに統合され、スイスのチューリッヒとスペインのセビリアで自律的、キロメートル規模の航法ミッションによって検証されます。
論文 参考訳(メタデータ) (2024-05-03T00:29:20Z) - Legged Locomotion in Challenging Terrains using Egocentric Vision [70.37554680771322]
本稿では,階段,縁石,石段,隙間を横断できる最初のエンドツーエンド移動システムを提案する。
この結果を,1台の前面深度カメラを用いた中型四足歩行ロボットに示す。
論文 参考訳(メタデータ) (2022-11-14T18:59:58Z) - ViNL: Visual Navigation and Locomotion Over Obstacles [36.46953494419389]
障害物を用いた視覚ナビゲーションとロコモーション(ViNL)について述べる。
四足歩行ロボットは、道にある小さな障害物を踏み越えながら、見えないアパートを移動することができる。
ViNLは,(1)不慣れな屋内環境における目標座標にロボットを誘導する線形および角速度コマンドを出力する視覚的ナビゲーションポリシーと,(2)ロボットの関節を制御し,提供された速度コマンドに従って障害物を踏むことを避ける視覚的移動ポリシーとから構成される。
論文 参考訳(メタデータ) (2022-10-26T15:38:28Z) - Advanced Skills by Learning Locomotion and Local Navigation End-to-End [10.872193480485596]
本研究は, 深層強化学習によるエンドツーエンド政策の訓練により, 完全な問題を解決することを提案する。
実際の四足歩行ロボットにおけるポリシーの展開を実演する。
論文 参考訳(メタデータ) (2022-09-26T16:35:00Z) - Learning Semantics-Aware Locomotion Skills from Human Demonstration [35.996425893483796]
四足歩行ロボットの知覚からセマンティクスを意識したロコモーションスキルを学習するフレームワークを提案する。
本フレームワークは,認識された地形意味に基づいてロボットの速度と歩行を調整し,失敗することなく6km以上歩けるようにする。
論文 参考訳(メタデータ) (2022-06-27T21:08:03Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Autonomous Navigation of Underactuated Bipedal Robots in
Height-Constrained Environments [20.246040671823554]
本稿では,二足歩行ロボットのためのエンドツーエンドの自律ナビゲーションフレームワークを提案する。
平面歩行と垂直歩行高さの結合力学を捉えるために,垂直移動式Spring-Loaded Inverted Pendulum (vSLIP)モデルを導入した。
可変歩行高さ制御装置を利用して、二足歩行ロボットは、計画された軌跡に従いながら、安定した周期歩行歩行を維持できる。
論文 参考訳(メタデータ) (2021-09-13T05:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。