論文の概要: Learning to Move with Affordance Maps
- arxiv url: http://arxiv.org/abs/2001.02364v2
- Date: Fri, 14 Feb 2020 19:01:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 12:47:40.100944
- Title: Learning to Move with Affordance Maps
- Title(参考訳): Affordance Mapsで動くことを学ぶ
- Authors: William Qi, Ravi Teja Mullapudi, Saurabh Gupta, Deva Ramanan
- Abstract要約: 物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
- 参考スコア(独自算出の注目度): 57.198806691838364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to autonomously explore and navigate a physical space is a
fundamental requirement for virtually any mobile autonomous agent, from
household robotic vacuums to autonomous vehicles. Traditional SLAM-based
approaches for exploration and navigation largely focus on leveraging scene
geometry, but fail to model dynamic objects (such as other agents) or semantic
constraints (such as wet floors or doorways). Learning-based RL agents are an
attractive alternative because they can incorporate both semantic and geometric
information, but are notoriously sample inefficient, difficult to generalize to
novel settings, and are difficult to interpret. In this paper, we combine the
best of both worlds with a modular approach that learns a spatial
representation of a scene that is trained to be effective when coupled with
traditional geometric planners. Specifically, we design an agent that learns to
predict a spatial affordance map that elucidates what parts of a scene are
navigable through active self-supervised experience gathering. In contrast to
most simulation environments that assume a static world, we evaluate our
approach in the VizDoom simulator, using large-scale randomly-generated maps
containing a variety of dynamic actors and hazards. We show that learned
affordance maps can be used to augment traditional approaches for both
exploration and navigation, providing significant improvements in performance.
- Abstract(参考訳): 物理的空間を自律的に探索し、ナビゲートする能力は、家庭用のロボット掃除機から自動運転車まで、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、シーン幾何学の活用に重点を置いていたが、動的オブジェクト(他のエージェントなど)や意味的制約(濡れた床や戸口など)をモデル化できなかった。
学習ベースのrlエージェントは、意味的情報と幾何学的情報の両方を組み込むことができるが、非効率なサンプルであり、新しい設定への一般化が困難であり、解釈が難しいため、魅力的な選択肢である。
本稿では,両世界の長所を,従来の幾何学的プランナーと組み合わせることで,効果的に訓練されたシーンの空間的表現を学習するモジュール的アプローチと組み合わせる。
具体的には,行動的自己監督体験の収集を通じて,シーンのどの部分がナビゲート可能かを明らかにする空間的余裕マップを予測できるエージェントを設計した。
静的世界を仮定するほとんどのシミュレーション環境とは対照的に,vizdoomシミュレータでは,様々な動的アクタとハザードを含む大規模ランダム生成マップを用いてアプローチを評価した。
学習可能なアフォーアンスマップは,探索とナビゲーションの両面で従来のアプローチを補強し,性能を大幅に改善できることを示す。
関連論文リスト
- E2Map: Experience-and-Emotion Map for Self-Reflective Robot Navigation with Language Models [16.50787220881633]
大規模言語モデル(LLM)は、言語命令を実行するためのエンボディエージェントを誘導する大きな可能性を示している。
既存の手法は主に静的環境向けに設計されており、エージェント自身の経験を生かして初期計画を洗練しない。
本研究は,LLMの知識とエージェントの現実世界の経験を統合した経験・感情マップ(E2Map)を紹介する。
論文 参考訳(メタデータ) (2024-09-16T06:35:18Z) - Multi-Object Navigation in real environments using hybrid policies [18.52681391843433]
本稿では,問題を2つの異なるスキルに分解するハイブリッドナビゲーション手法を提案する。
シミュレーションと実環境の両方において、エンドツーエンドの手法と比較して、このアプローチの利点を示す。
論文 参考訳(メタデータ) (2024-01-24T20:41:25Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Bayesian Floor Field: Transferring people flow predictions across environments [8.691309696914882]
本研究では,環境学の知識と人間の軌跡からの観察を組み合わせ,動的に学習する新しい手法を提案する。
歩行者の観察を必要とせずに初期移行モデルを構築するために、被占領者に基づくディープ・フォワードが使用される。
我々は,本モデルがデータ効率を向上し,実大規模環境にまたがる一般化を実現する能力を示す。
論文 参考訳(メタデータ) (2022-08-23T10:09:40Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z) - Robot Navigation in Constrained Pedestrian Environments using
Reinforcement Learning [32.454250811667904]
歩行者のまわりをスムーズに移動することは、人間環境に展開する移動ロボットに必要な能力である。
移動歩行者の存在に動的に適応できる政策を学習するための強化学習に基づくアプローチを提案する。
2つの実環境の3D再構成に学習方針の移転を示す。
論文 参考訳(メタデータ) (2020-10-16T19:40:08Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。