論文の概要: Learning Embeddings that Capture Spatial Semantics for Indoor Navigation
- arxiv url: http://arxiv.org/abs/2108.00159v1
- Date: Sat, 31 Jul 2021 06:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 03:53:54.195940
- Title: Learning Embeddings that Capture Spatial Semantics for Indoor Navigation
- Title(参考訳): 屋内ナビゲーションのための空間セマンティクスをキャプチャする学習埋め込み
- Authors: Vidhi Jain, Prakhar Agarwal, Shishir Patil, Katia Sycara
- Abstract要約: 本研究では,空間的セマンティックな先行情報をキャプチャするオブジェクトの埋め込みによって,構造化された環境における探索やナビゲーションのタスクをガイドする方法について検討する。
本研究では,事前学習された言語モデルと多言語知識ベースをオブジェクト埋め込みとして活用することにより,そのような空間意味認識をロボットに組み込む手法を提案する。
- 参考スコア(独自算出の注目度): 2.2940141855172027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incorporating domain-specific priors in search and navigation tasks has shown
promising results in improving generalization and sample complexity over
end-to-end trained policies. In this work, we study how object embeddings that
capture spatial semantic priors can guide search and navigation tasks in a
structured environment. We know that humans can search for an object like a
book, or a plate in an unseen house, based on the spatial semantics of bigger
objects detected. For example, a book is likely to be on a bookshelf or a
table, whereas a plate is likely to be in a cupboard or dishwasher. We propose
a method to incorporate such spatial semantic awareness in robots by leveraging
pre-trained language models and multi-relational knowledge bases as object
embeddings. We demonstrate using these object embeddings to search a query
object in an unseen indoor environment. We measure the performance of these
embeddings in an indoor simulator (AI2Thor). We further evaluate different
pre-trained embedding onSuccess Rate(SR) and success weighted by Path
Length(SPL).
- Abstract(参考訳): 検索およびナビゲーションタスクにドメイン固有の事前を組み込むことで、エンドツーエンドのトレーニングポリシよりも一般化とサンプルの複雑さが改善される。
本研究では,空間的意味的優先順位をキャプチャするオブジェクト埋め込みが,構造化された環境における検索やナビゲーションのタスクをどのように導くかを検討する。
人類は、検出された大きな物体の空間的意味論に基づいて、本や見えない家のプレートのような物体を検索できることを知っている。
例えば、本は本棚やテーブルの上に置かれることが多いが、皿は食器洗い機や食器洗い機にある可能性が高い。
本稿では,事前学習された言語モデルと複数関係知識ベースを物体埋め込みとして活用し,ロボットにこのような空間的意味認識を組み込む手法を提案する。
屋内環境における問合せ対象の検索にこれらのオブジェクト埋め込みを用いることを実証する。
室内シミュレータ(AI2Thor)における埋め込み性能の測定を行った。
また,Success Rate (SR) とPath Length (SPL) の重み付けにより,各種の事前訓練埋込量を評価した。
関連論文リスト
- Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - PEANUT: Predicting and Navigating to Unseen Targets [18.87376347895365]
新しい環境における効率的なObjectGoalナビゲーション(ObjectNav)は、環境レイアウトにおける空間的および意味的規則性を理解する必要がある。
不完全なセマンティックマップから観測対象の位置を予測し,これらの規則性を学習する手法を提案する。
我々の予測モデルは軽量であり、比較的少量の受動的収集データを用いて教師付きで訓練することができる。
論文 参考訳(メタデータ) (2022-12-05T18:58:58Z) - A Contextual Bandit Approach for Learning to Plan in Environments with
Probabilistic Goal Configurations [20.15854546504947]
本研究では,静的なオブジェクトだけでなく可動なオブジェクトに対しても,屋内環境を効率的に探索できるオブジェクトナビのためのモジュラーフレームワークを提案する。
我々は,不確実性に直面した場合の楽観性を示すことにより,環境を効率的に探索する。
提案アルゴリズムを2つのシミュレーション環境と実世界の環境で評価し,高いサンプル効率と信頼性を示す。
論文 参考訳(メタデータ) (2022-11-29T15:48:54Z) - Structured Exploration Through Instruction Enhancement for Object
Navigation [0.0]
本稿では,オブジェクトナビゲーションのための階層型学習手法を提案する。
トップレベルはハイレベルなプランニングが可能で、フロアプランレベルでメモリを構築することができる。
本研究では,本手法が動的家庭環境に与える影響を実証する。
論文 参考訳(メタデータ) (2022-11-15T19:39:22Z) - Weakly-Supervised Multi-Granularity Map Learning for Vision-and-Language
Navigation [87.52136927091712]
我々は,ロボットエージェントが言語指導によって記述された経路をたどって,環境の中をナビゲートするよう訓練する,現実的かつ困難な問題に対処する。
高精度かつ効率的なナビゲーションを実現するためには,環境オブジェクトの空間的位置と意味情報の両方を正確に表現した地図を構築することが重要である。
より包括的にオブジェクトを表現するために,オブジェクトの細粒度(色,テクスチャなど)とセマンティッククラスの両方を含む多粒度マップを提案する。
論文 参考訳(メタデータ) (2022-10-14T04:23:27Z) - Landmark Policy Optimization for Object Navigation Task [77.34726150561087]
本研究は,未確認環境において,与えられたセマンティックカテゴリに関連する最も近いオブジェクトにナビゲートするオブジェクトゴールナビゲーションタスクについて研究する。
最近の研究は、エンドツーエンドの強化学習アプローチとモジュールシステムの両方において大きな成果を上げていますが、堅牢で最適なものにするには大きな前進が必要です。
本稿では,これらのランドマークを抽出する手法として,標準的なタスクの定式化とランドマークとしての付加的な地域知識を取り入れた階層的手法を提案する。
論文 参考訳(メタデータ) (2021-09-17T12:28:46Z) - Learning to Map for Active Semantic Goal Navigation [40.193928212509356]
本稿では,エージェントの視野外のセマンティックマップ生成を積極的に学習する新しいフレームワークを提案する。
我々は、エクスプロイトとエクスプロイトのバランスをとることで、異なる目的をどのように定義できるかを示す。
本手法は,Matterport3Dデータセットによって提供される視覚的に現実的な環境において検証される。
論文 参考訳(メタデータ) (2021-06-29T18:01:30Z) - Object Goal Navigation using Goal-Oriented Semantic Exploration [98.14078233526476]
本研究は,未確認環境における対象カテゴリーのインスタンスにナビゲートするオブジェクトゴールナビゲーションの問題を研究する。
本稿では,表層的なセマンティックマップを構築し,効率的に環境を探索する「ゴール指向セマンティック探索」というモジュールシステムを提案する。
論文 参考訳(メタデータ) (2020-07-01T17:52:32Z) - Extending Maps with Semantic and Contextual Object Information for Robot
Navigation: a Learning-Based Framework using Visual and Depth Cues [12.984393386954219]
本稿では,RGB-D画像からのセマンティック情報を用いて,シーンのメートル法表現を付加する問題に対処する。
オブジェクトレベルの情報を持つ環境の地図表現を拡張化するための完全なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T15:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。