論文の概要: Seeing the Un-Scene: Learning Amodal Semantic Maps for Room Navigation
- arxiv url: http://arxiv.org/abs/2007.09841v1
- Date: Mon, 20 Jul 2020 02:19:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:23:48.294426
- Title: Seeing the Un-Scene: Learning Amodal Semantic Maps for Room Navigation
- Title(参考訳): un-scene: ルームナビゲーションのためのamodal semantic mapの学習
- Authors: Medhini Narasimhan, Erik Wijmans, Xinlei Chen, Trevor Darrell, Dhruv
Batra, Devi Parikh, Amanpreet Singh
- Abstract要約: セマンティックマップを用いた室内ナビゲーションのための学習型アプローチを提案する。
我々は、部屋の位置、大きさ、形状の信念を示すアモーダルな意味的トップダウンマップを生成するためにモデルを訓練する。
次に、これらのマップを使用して、対象の部屋にある点を予測し、その点に向かうためのポリシーを訓練します。
- 参考スコア(独自算出の注目度): 143.6144560164782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a learning-based approach for room navigation using semantic
maps. Our proposed architecture learns to predict top-down belief maps of
regions that lie beyond the agent's field of view while modeling architectural
and stylistic regularities in houses. First, we train a model to generate
amodal semantic top-down maps indicating beliefs of location, size, and shape
of rooms by learning the underlying architectural patterns in houses. Next, we
use these maps to predict a point that lies in the target room and train a
policy to navigate to the point. We empirically demonstrate that by predicting
semantic maps, the model learns common correlations found in houses and
generalizes to novel environments. We also demonstrate that reducing the task
of room navigation to point navigation improves the performance further.
- Abstract(参考訳): セマンティックマップを用いた室内ナビゲーションのための学習型アプローチを提案する。
提案アーキテクチャは,住宅における建築と様式の整合性をモデル化しながら,エージェントの視野を超えた地域のトップダウン信頼マップを予測できることを学習する。
まず,室内の建築パターンを学習することにより,部屋の位置,大きさ,形状の信念を示すアモーダルなセマンティクストップダウンマップを生成するモデルを訓練する。
次に、これらのマップを使用して、対象の部屋にある点を予測し、その点に向かうためのポリシーを訓練します。
我々は,セマンティックマップの予測により,住宅における共通相関を学習し,新しい環境に一般化することを示す。
また,部屋ナビゲーションのタスクをポイントナビゲーションに削減することで,さらにパフォーマンスが向上することを示す。
関連論文リスト
- Interactive Semantic Map Representation for Skill-based Visual Object
Navigation [43.71312386938849]
本稿では,室内環境との相互作用にともなうシーンセマンティックマップの表現について紹介する。
我々はこの表現をSkillTronと呼ばれる本格的なナビゲーション手法に実装した。
提案手法により,ロボット探索の中間目標とオブジェクトナビゲーションの最終目標の両方を形成できる。
論文 参考訳(メタデータ) (2023-11-07T16:30:12Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Multi-Object Navigation with dynamically learned neural implicit
representations [10.182418917501064]
本稿では,各エピソードにおいて動的に学習される2つのニューラル暗示表現を用いてニューラルネットワークを構築することを提案する。
マルチオブジェクトナビゲーションにおけるエージェントの評価を行い、暗黙的表現をメモリソースとして使用する場合の影響を高く示す。
論文 参考訳(メタデータ) (2022-10-11T04:06:34Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。