論文の概要: Predicting Dense and Context-aware Cost Maps for Semantic Robot
Navigation
- arxiv url: http://arxiv.org/abs/2210.08952v1
- Date: Mon, 17 Oct 2022 11:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:06:33.793614
- Title: Predicting Dense and Context-aware Cost Maps for Semantic Robot
Navigation
- Title(参考訳): 意味的ロボットナビゲーションのためのDense and Context-aware Cost Mapsの予測
- Authors: Yash Goel, Narunas Vaskevicius, Luigi Palmieri, Nived Chebrolu and
Cyrill Stachniss
- Abstract要約: 本研究では,対象がセマンティックラベルで指定された未知環境における目標ナビゲーションの課題について検討する。
本稿では,意味的コンテキストを暗黙的に含む高コストマップを予測するために,ディープニューラルネットワークアーキテクチャとロス関数を提案する。
また、コストマップ予測のためのセマンティックなヒントを提供するために、アーキテクチャに中間レベルの視覚表現を融合する新しい方法を提案する。
- 参考スコア(独自算出の注目度): 35.45993685414002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the task of object goal navigation in unknown environments
where the target is specified by a semantic label (e.g. find a couch). Such a
navigation task is especially challenging as it requires understanding of
semantic context in diverse settings. Most of the prior work tackles this
problem under the assumption of a discrete action policy whereas we present an
approach with continuous control which brings it closer to real world
applications. We propose a deep neural network architecture and loss function
to predict dense cost maps that implicitly contain semantic context and guide
the robot towards the semantic goal. We also present a novel way of fusing
mid-level visual representations in our architecture to provide additional
semantic cues for cost map prediction. The estimated cost maps are then used by
a sampling-based model predictive controller (MPC) for generating continuous
robot actions. The preliminary experiments suggest that the cost maps generated
by our network are suitable for the MPC and can guide the agent to the semantic
goal more efficiently than a baseline approach. The results also indicate the
importance of mid-level representations for navigation by improving the success
rate by 7 percentage points.
- Abstract(参考訳): 目標が意味ラベルで指定される未知環境(例えば、ソファを見つける)におけるオブジェクト目標ナビゲーションのタスクについて検討する。
このようなナビゲーションタスクは、様々な設定で意味的コンテキストを理解する必要があるため、特に難しい。
従来の作業の多くは、個別のアクションポリシーを前提としてこの問題に取り組み、一方、我々は、現実のアプリケーションに近づいた継続的制御によるアプローチを提示します。
本稿では,暗黙的に意味的文脈を含む密集したコストマップを予測し,ロボットを意味的目標に向けて導くディープニューラルネットワークアーキテクチャと損失関数を提案する。
また、コストマップ予測のためのセマンティックなヒントを提供するために、アーキテクチャに中間レベルの視覚表現を融合する新しい方法を提案する。
推定コストマップはサンプリングベースモデル予測コントローラ(MPC)によって、連続したロボット動作を生成するために使用される。
予備実験により, ネットワークが生成したコストマップはMPCに適しており, エージェントをベースラインアプローチよりも効率的にセマンティックゴールへ誘導できることが示唆された。
また,成功率を7ポイント向上させることで,ナビゲーションにおける中水準表現の重要性も示唆した。
関連論文リスト
- PRET: Planning with Directed Fidelity Trajectory for Vision and Language Navigation [30.710806048991923]
視覚と言語ナビゲーションは、エージェントが自然言語の指示に従ってナビゲートする必要があるタスクである。
近年の手法では、各ステップで構築されたトポロジーマップのサブゴールを予測し、長期的な行動計画を可能にする。
本稿では,指示と指向性軌道のアライメントを考慮し,ナビゲーション計画を容易にする方法を提案する。
論文 参考訳(メタデータ) (2024-07-16T08:22:18Z) - Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Interactive Semantic Map Representation for Skill-based Visual Object
Navigation [43.71312386938849]
本稿では,室内環境との相互作用にともなうシーンセマンティックマップの表現について紹介する。
我々はこの表現をSkillTronと呼ばれる本格的なナビゲーション手法に実装した。
提案手法により,ロボット探索の中間目標とオブジェクトナビゲーションの最終目標の両方を形成できる。
論文 参考訳(メタデータ) (2023-11-07T16:30:12Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Navigating to Objects in Unseen Environments by Distance Prediction [16.023495311387478]
推定距離マップに基づいて経路計画を直接実行可能なオブジェクトゴールナビゲーションフレームワークを提案する。
具体的には,鳥眼のセマンティックマップを入力として,地図セルから対象物までの距離を推定する。
推定距離マップを用いて、エージェントは環境を探索し、人間設計または学習されたナビゲーションポリシーに基づいて対象物に移動することができる。
論文 参考訳(メタデータ) (2022-02-08T09:22:50Z) - Learning to Map for Active Semantic Goal Navigation [40.193928212509356]
本稿では,エージェントの視野外のセマンティックマップ生成を積極的に学習する新しいフレームワークを提案する。
我々は、エクスプロイトとエクスプロイトのバランスをとることで、異なる目的をどのように定義できるかを示す。
本手法は,Matterport3Dデータセットによって提供される視覚的に現実的な環境において検証される。
論文 参考訳(メタデータ) (2021-06-29T18:01:30Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - Object Goal Navigation using Goal-Oriented Semantic Exploration [98.14078233526476]
本研究は,未確認環境における対象カテゴリーのインスタンスにナビゲートするオブジェクトゴールナビゲーションの問題を研究する。
本稿では,表層的なセマンティックマップを構築し,効率的に環境を探索する「ゴール指向セマンティック探索」というモジュールシステムを提案する。
論文 参考訳(メタデータ) (2020-07-01T17:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。