論文の概要: NavDreams: Towards Camera-Only RL Navigation Among Humans
- arxiv url: http://arxiv.org/abs/2203.12299v1
- Date: Wed, 23 Mar 2022 09:46:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 16:29:08.541415
- Title: NavDreams: Towards Camera-Only RL Navigation Among Humans
- Title(参考訳): NavDreams:人間間のカメラ専用RLナビゲーションを目指す
- Authors: Daniel Dugas, Olov Andersson, Roland Siegwart and Jen Jen Chung
- Abstract要約: 我々は,アタリゲームにおけるモデリングと学習の方針を示す世界モデルの概念が,カメラによるナビゲーション問題にも適用できるかどうかを考察する。
我々は、ロボットが目標を達成するために衝突することなく、静的で動く人間を通り過ぎなければならないシミュレーション環境を作成する。
現状の手法はナビゲーション問題の解決に成功でき、将来の画像系列の夢のような予測を生成することができる。
- 参考スコア(独自算出の注目度): 35.57943738219839
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomously navigating a robot in everyday crowded spaces requires solving
complex perception and planning challenges. When using only monocular image
sensor data as input, classical two-dimensional planning approaches cannot be
used. While images present a significant challenge when it comes to perception
and planning, they also allow capturing potentially important details, such as
complex geometry, body movement, and other visual cues. In order to
successfully solve the navigation task from only images, algorithms must be
able to model the scene and its dynamics using only this channel of
information. We investigate whether the world model concept, which has shown
state-of-the-art results for modeling and learning policies in Atari games as
well as promising results in 2D LiDAR-based crowd navigation, can also be
applied to the camera-based navigation problem. To this end, we create
simulated environments where a robot must navigate past static and moving
humans without colliding in order to reach its goal. We find that
state-of-the-art methods are able to achieve success in solving the navigation
problem, and can generate dream-like predictions of future image-sequences
which show consistent geometry and moving persons. We are also able to show
that policy performance in our high-fidelity sim2real simulation scenario
transfers to the real world by testing the policy on a real robot. We make our
simulator, models and experiments available at
https://github.com/danieldugas/NavDreams.
- Abstract(参考訳): ロボットを日常の混雑した空間で自律的に移動させるには、複雑な知覚と計画の課題を解決する必要がある。
単眼画像センサデータのみを入力として使用する場合、古典的な2次元計画手法は使用できない。
イメージは知覚や計画に関して大きな課題があるが、複雑な幾何学、体の動き、その他の視覚手がかりといった重要な詳細を捉えることもできる。
画像のみからナビゲーションタスクをうまく解決するためには、この情報チャネルのみを使用して、アルゴリズムがシーンとそのダイナミクスをモデル化する必要がある。
本研究では,アタリゲームにおけるモデリングおよび学習ポリシーに関する最先端の成果と,2次元LiDARに基づく観衆ナビゲーションの有望な結果を示す世界モデルの概念が,カメラベースのナビゲーション問題にも適用できるかどうかを考察する。
そこで我々は,ロボットが目標を達成するために衝突することなく,静的で動く人間を通り過ぎなければならないシミュレーション環境を構築した。
現状の手法はナビゲーション問題の解決に成功し,一貫した幾何学的特徴を示す将来の画像系列の夢のような予測を生成することができる。
また、実際のロボットでポリシーをテストすることで、高忠実なsim2realシミュレーションシナリオにおけるポリシー性能を実世界に移すことができる。
シミュレーター、モデル、実験はhttps://github.com/danieldugas/navdreamsで利用可能です。
関連論文リスト
- Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - Transformers for Image-Goal Navigation [0.0]
本稿では,画像目標,カメラ観測,ロボットの過去の動作を共同でモデル化し,将来の行動を予測するための生成トランスフォーマーモデルを提案する。
本モデルでは,長期間の地平線上での視覚情報の収集と関連性を実証し,ナビゲーションの効率化に寄与する。
論文 参考訳(メタデータ) (2024-05-23T03:01:32Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Out of the Box: Embodied Navigation in the Real World [45.97756658635314]
シミュレーションで得られた知識を現実世界に伝達する方法を示す。
モデルは1台のIntel RealSenseカメラを搭載したLoCoBotにデプロイします。
本実験では,得られたモデルを実世界に展開することで,満足のいく結果が得られることを示した。
論文 参考訳(メタデータ) (2021-05-12T18:00:14Z) - Learning a State Representation and Navigation in Cluttered and Dynamic
Environments [6.909283975004628]
本稿では,四足ロボットによる局所ナビゲーションを実現するための学習ベースのパイプラインを提案する。
ロボットは、環境を明示的にマッピングすることなく、奥行きカメラのフレームに基づいて、安全な場所へ移動することができる。
本システムでは,ノイズの多い奥行き画像の処理が可能であり,訓練中の動的障害物を回避でき,局所的な空間意識を付与できることを示す。
論文 参考訳(メタデータ) (2021-03-07T13:19:06Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z) - BADGR: An Autonomous Self-Supervised Learning-Based Navigation System [158.6392333480079]
BadGRは、エンドツーエンドの学習ベースのモバイルロボットナビゲーションシステムである。
実際の環境で収集された、自己監督型のオフポリシーデータでトレーニングすることができる。
BadGRは、幾何学的に邪魔な障害物を伴って、現実世界の都市やオフロード環境をナビゲートすることができる。
論文 参考訳(メタデータ) (2020-02-13T18:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。