論文の概要: Robust Localization, Mapping, and Navigation for Quadruped Robots
- arxiv url: http://arxiv.org/abs/2505.02272v1
- Date: Sun, 04 May 2025 21:58:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.521177
- Title: Robust Localization, Mapping, and Navigation for Quadruped Robots
- Title(参考訳): 四足歩行ロボットのロバストな位置決め, マッピング, ナビゲーション
- Authors: Dyuman Aditya, Junning Huang, Nico Bohlinger, Piotr Kicki, Krzysztof Walas, Jan Peters, Matteo Luperto, Davide Tateo,
- Abstract要約: 本稿では,低コスト四足歩行ロボットのためのロバストなローカライズ,マッピング,ナビゲーションシステムに向けた第一歩を示す。
我々は,接触支援キネマティック,視覚慣性オドメトリー,奥行き安定化ビジョンを組み合わせ,システムの安定性と精度を向上する。
シミュレーションの結果と2つの異なる現実世界の4Dプラットフォームにより、システムは環境の正確な2Dマップを生成し、自分自身をしっかりとローカライズし、自律的にナビゲートできることが示されている。
- 参考スコア(独自算出の注目度): 19.76613973814855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quadruped robots are currently a widespread platform for robotics research, thanks to powerful Reinforcement Learning controllers and the availability of cheap and robust commercial platforms. However, to broaden the adoption of the technology in the real world, we require robust navigation stacks relying only on low-cost sensors such as depth cameras. This paper presents a first step towards a robust localization, mapping, and navigation system for low-cost quadruped robots. In pursuit of this objective we combine contact-aided kinematic, visual-inertial odometry, and depth-stabilized vision, enhancing stability and accuracy of the system. Our results in simulation and two different real-world quadruped platforms show that our system can generate an accurate 2D map of the environment, robustly localize itself, and navigate autonomously. Furthermore, we present in-depth ablation studies of the important components of the system and their impact on localization accuracy. Videos, code, and additional experiments can be found on the project website: https://sites.google.com/view/low-cost-quadruped-slam
- Abstract(参考訳): 四足ロボットは現在、強力な強化学習コントローラと安価で堅牢な商用プラットフォームのおかげで、ロボット研究の広範なプラットフォームとなっている。
しかし、この技術が現実世界で広く普及するためには、ディープカメラのような低コストのセンサーにのみ依存する堅牢なナビゲーションスタックが必要である。
本稿では,低コスト四足歩行ロボットのためのロバストなローカライズ,マッピング,ナビゲーションシステムに向けた第一歩を示す。
この目的を追求するために, 接触支援キネマティック, 視覚慣性オドメトリー, 深度安定化ビジョンを組み合わせ, システムの安定性と精度を向上させる。
シミュレーションの結果と2つの異なる現実世界の4Dプラットフォームにより、システムは環境の正確な2Dマップを生成し、自分自身をしっかりとローカライズし、自律的にナビゲートできることが示されている。
さらに,システムの重要成分とその局所化精度への影響について,詳細なアブレーション研究を行った。
ビデオ、コード、その他の実験はプロジェクトのウェブサイトで見ることができる。
関連論文リスト
- Real-time Multi-view Omnidirectional Depth Estimation System for Robots and Autonomous Driving on Real Scenes [9.073031720400401]
ロボットと車両の両方の現実シナリオにおけるナビゲーションと障害物回避のための全方位深度推定システムとそれに対応するアルゴリズムを提案する。
実時間全方位深度推定を実現するために,球面スイーシング法とモデルアーキテクチャを併用したRtHexa-OmniMVSアルゴリズムを提案する。
提案アルゴリズムは,屋内および屋外の両方で複雑な実世界のシナリオにおいて高い精度を示し,エッジコンピューティングプラットフォーム上で15fpsの推論速度を実現する。
論文 参考訳(メタデータ) (2024-09-12T08:44:35Z) - Autonomous Marker-less Rapid Aerial Grasping [5.892028494793913]
本稿では,自律的高速空中把握のための視覚ベースシステムを提案する。
検出対象の高密度点雲を生成し,幾何に基づく把握計画を行う。
飛行プラットフォームを用いた幾何学的把握技術の最初の利用例を示す。
論文 参考訳(メタデータ) (2022-11-23T16:25:49Z) - See What the Robot Can't See: Learning Cooperative Perception for Visual
Navigation [11.943412856714154]
センサをトレーニングして、関連する視点情報を移動ロボットにエンコードし、伝達する。
我々は、全てのセンサーが目標への最短経路に沿って方向を予測できるようにするという課題を克服する。
その結果,センサとロボットの通信により,SPLの最大2.0倍の改善が達成された。
論文 参考訳(メタデータ) (2022-08-01T11:37:01Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - High-Speed Robot Navigation using Predicted Occupancy Maps [0.0]
ロボットがセンサの地平線を越えて広がる空間を高速で予測できるアルゴリズム手法について検討する。
我々は、人間のアノテートラベルを必要とせず、実世界のデータからトレーニングされた生成ニューラルネットワークを用いてこれを実現する。
既存の制御アルゴリズムを拡張し、予測空間を活用することで、衝突のない計画とナビゲーションを高速で改善します。
論文 参考訳(メタデータ) (2020-12-22T16:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。