論文の概要: Resilient Legged Local Navigation: Learning to Traverse with Compromised
Perception End-to-End
- arxiv url: http://arxiv.org/abs/2310.03581v1
- Date: Thu, 5 Oct 2023 15:01:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 15:51:52.790582
- Title: Resilient Legged Local Navigation: Learning to Traverse with Compromised
Perception End-to-End
- Title(参考訳): resilient legged local navigation: 端から端まで知覚を損なうトラバースへの学習
- Authors: Jin Jin, Chong Zhang, Jonas Frey, Nikita Rudin, Matias Mattamala,
Cesar Cadena, Marco Hutter
- Abstract要約: 我々は認識障害を目に見えない障害と落とし穴としてモデル化する。
我々は、強化学習に基づくローカルナビゲーションポリシーを訓練し、足のついたロボットを案内する。
シミュレーションおよび実四足歩行ロボットANYmalをリアルタイムに動作させることにより,本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 16.748853375988013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous robots must navigate reliably in unknown environments even under
compromised exteroceptive perception, or perception failures. Such failures
often occur when harsh environments lead to degraded sensing, or when the
perception algorithm misinterprets the scene due to limited generalization. In
this paper, we model perception failures as invisible obstacles and pits, and
train a reinforcement learning (RL) based local navigation policy to guide our
legged robot. Unlike previous works relying on heuristics and anomaly detection
to update navigational information, we train our navigation policy to
reconstruct the environment information in the latent space from corrupted
perception and react to perception failures end-to-end. To this end, we
incorporate both proprioception and exteroception into our policy inputs,
thereby enabling the policy to sense collisions on different body parts and
pits, prompting corresponding reactions. We validate our approach in simulation
and on the real quadruped robot ANYmal running in real-time (<10 ms CPU
inference). In a quantitative comparison with existing heuristic-based locally
reactive planners, our policy increases the success rate over 30% when facing
perception failures. Project Page: https://bit.ly/45NBTuh.
- Abstract(参考訳): 自律ロボットは、侵害された知覚や知覚不全の下でも、未知の環境で確実に移動しなければならない。
このような失敗は、厳しい環境が劣化した知覚を引き起こす場合や、認識アルゴリズムが限られた一般化のためにシーンを誤解釈する場合に発生する。
本稿では、認識障害を目に見えない障害物や落とし穴としてモデル化し、強化学習(RL)に基づく局所ナビゲーションポリシーを訓練し、ロボットを誘導する。
ナビゲーション情報を更新するためにヒューリスティックスや異常検出に頼る従来の作業と異なり、我々は潜在空間の環境情報を腐敗した知覚から再構築するためにナビゲーションポリシーを訓練し、エンドツーエンドで知覚不全に反応する。
この目的のために,当社の政策入力に固有受容とエクセプションの両方を組み込むことにより,異なる身体部位とピットの衝突を感知し,対応する反応を誘発する。
シミュレーションおよび実四足歩行ロボットANYmalをリアルタイム(10ms CPU推論)で動作させることで,本手法の有効性を検証した。
既存のヒューリスティックベースの局所反応性プランナーと定量的に比較すると、認識障害に直面した場合の成功率が30%以上上昇する。
プロジェクトページ: https://bit.ly/45NBTuh。
関連論文リスト
- Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Occlusion-Aware Crowd Navigation Using People as Sensors [8.635930195821263]
このような設定では、センサーの視野が限られているため、オクルージョンが非常に一般的である。
これまでの研究では、人間のエージェントの観察された対話的行動が潜在的な障害を推定するために用いられることが示されている。
本稿では,このような社会的推論手法を計画パイプラインに統合することを提案する。
論文 参考訳(メタデータ) (2022-10-02T15:18:32Z) - Physical Passive Patch Adversarial Attacks on Visual Odometry Systems [6.391337032993737]
本研究では,視覚計測に基づく自律ナビゲーションシステムに対するパッチ対向攻撃について検討する。
本研究では,現場にパッチ対向攻撃を配置することにより,視覚計測モデルの誤差マージンを著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-07-11T14:41:06Z) - Verifying Learning-Based Robotic Navigation Systems [61.01217374879221]
有効モデル選択に現代検証エンジンをどのように利用できるかを示す。
具体的には、検証を使用して、最適下行動を示す可能性のあるポリシーを検出し、除外する。
我々の研究は、現実世界のロボットにおける準最適DRLポリシーを認識するための検証バックエンドの使用を初めて実証したものである。
論文 参考訳(メタデータ) (2022-05-26T17:56:43Z) - Intention Aware Robot Crowd Navigation with Attention-Based Interaction
Graph [3.8461692052415137]
本研究では,高密度で対話的な群集における安全かつ意図に配慮したロボットナビゲーションの課題について検討する。
本稿では,エージェント間の異種相互作用を捕捉するアテンション機構を備えた新しいグラフニューラルネットワークを提案する。
提案手法は,群集ナビゲーションのシナリオにおいて,優れたナビゲーション性能と非侵襲性をロボットが実現できることを実証する。
論文 参考訳(メタデータ) (2022-03-03T16:26:36Z) - XAI-N: Sensor-based Robot Navigation using Expert Policies and Decision
Trees [55.9643422180256]
本稿では,ロボットの密集した動的環境における衝突のない軌道を計算するためのセンサベース学習ナビゲーションアルゴリズムを提案する。
我々のアプローチは、sim2realパラダイムを用いて訓練された深層強化学習に基づくエキスパートポリシーを使用する。
シミュレーション環境でのアルゴリズムの利点を強調し、移動中の歩行者の間でClearpath Jackalロボットをナビゲートする。
論文 参考訳(メタデータ) (2021-04-22T01:33:10Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Autonomous Exploration Under Uncertainty via Deep Reinforcement Learning
on Graphs [5.043563227694137]
本研究では,移動ロボットが事前の未知環境におけるランドマークの正確なマッピングをリアルタイムで効率的に行うという自律的な探索問題を考察する。
本稿では,グラフニューラルネットワーク(GNN)と深部強化学習(DRL)を併用した新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-24T16:50:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。