論文の概要: Object Goal Navigation Based on Semantics and RGB Ego View
- arxiv url: http://arxiv.org/abs/2210.11543v1
- Date: Thu, 20 Oct 2022 19:23:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:46:52.236757
- Title: Object Goal Navigation Based on Semantics and RGB Ego View
- Title(参考訳): セマンティクスとrgb egoビューに基づくオブジェクトゴールナビゲーション
- Authors: Snehasis Banerjee, Brojeshwar Bhowmick, Ruddra Dev Roychoudhury
- Abstract要約: 本稿では,RGBエゴビューを前提として,サービスロボットが屋内環境のセマンティックな意思決定を行えるようにするためのアーキテクチャと方法論を提案する。
ロボットはジオセムマップ(幾何マップと意味マップのリレーショナル組み合わせ)に基づいてナビゲートする。
提案手法は, 平均完了時間に対するゲーミフィケーション評価において, 人間のユーザよりも優れていた。
- 参考スコア(独自算出の注目度): 9.702784248870522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an architecture and methodology to empower a service
robot to navigate an indoor environment with semantic decision making, given
RGB ego view. This method leverages the knowledge of robot's actuation
capability and that of scenes, objects and their relations -- represented in a
semantic form. The robot navigates based on GeoSem map - a relational
combination of geometric and semantic map. The goal given to the robot is to
find an object in a unknown environment with no navigational map and only
egocentric RGB camera perception. The approach is tested both on a simulation
environment and real life indoor settings. The presented approach was found to
outperform human users in gamified evaluations with respect to average
completion time.
- Abstract(参考訳): 本稿では、RGBエゴビューを前提として、サービスロボットが屋内環境を意味決定でナビゲートするためのアーキテクチャと方法論を提案する。
本手法は,ロボットのアクティベーション能力とシーン,オブジェクト,およびそれらの関係の知識を意味的形式で表現する。
ロボットはジオセムマップ(幾何マップと意味マップのリレーショナル組み合わせ)に基づいてナビゲートする。
ロボットに与えられたゴールは、ナビゲーションマップがなく、自我中心のRGBカメラしか認識できない未知の環境で物体を見つけることである。
この手法はシミュレーション環境と実生活屋内環境の両方でテストされる。
提案手法は, 平均完了時間に対するゲーミフィケーション評価において, 人間のユーザよりも優れていた。
関連論文リスト
- Generalized Object Search [0.9137554315375919]
この論文は、不確実な3次元環境における多目的探索のための方法とシステムを開発する。
ロボットに依存しない,環境に依存しない3次元物体探索システムを構築した。
私はBoston Dynamics Spotロボット、Kinova MOVOロボット、Universal Robots UR5eロボットアームにデプロイしました。
論文 参考訳(メタデータ) (2023-01-24T16:41:36Z) - Embodied Agents for Efficient Exploration and Smart Scene Description [47.82947878753809]
我々は、自律的なエージェントが見えない屋内環境を探索し、マッピングする必要がある視覚ナビゲーションの設定に取り組む。
本稿では,視覚ロボット探査と画像キャプションの最近の進歩を組み合わせたアプローチを提案し,評価する。
提案手法は,環境の意味的知識を最大化し,繰り返しを避けるスマートなシーン記述を生成する。
論文 参考訳(メタデータ) (2023-01-17T19:28:01Z) - Object Goal Navigation with End-to-End Self-Supervision [110.6053241629366]
家庭のロボットは、ユーザがまず自分の家にあるものすべてに注釈を付けることなく、ターゲットの場所へ移動できなければならない。
このオブジェクトナビゲーション課題に対する現在のアプローチは、実際のロボットをテストせず、高価なセマンティックラベル付き3Dメッシュに依存している。
本研究では, エンド・ツー・エンドの自己監督型エンボディエージェントを提案する。
論文 参考訳(メタデータ) (2022-12-09T03:41:40Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Semantic Sensing and Planning for Human-Robot Collaboration in Uncertain
Environments [0.7782749017947664]
本稿では,ロボットチームにおけるアクティブなセマンティックセンシングと計画のためのフレームワークを提案する。
これは人間が不規則にモデル構造を強制し、不確実な環境で意味のあるソフトデータの範囲を広げることを可能にする。
移動目標を探索しながら環境を動的に更新することで、ロボットエージェントが人間に新しい意味データと関連する意味データを積極的にクエリすることができる。
論文 参考訳(メタデータ) (2021-10-20T00:41:57Z) - RECON: Rapid Exploration for Open-World Navigation with Latent Goal
Models [86.6277106805934]
多様な環境における自律ナビゲーションのためのロボット学習システムについて述べる。
我々の手法は、20分で最大80mの半径で、画像として指定された新しい目標に到達することを学べる。
また,本手法は既知の障害物や気象条件に対する頑健性を示す。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - Lifelong update of semantic maps in dynamic environments [2.343080600040765]
ロボットは周囲から知覚される生の情報を通じて世界を理解する。
ロボットとユーザの両方が理解している高度な情報を含むセマンティックマップは、共有表現としてより適している。
セマンティックマップをフロアクリーニングロボット群におけるユーザインタフェースとして使用しています。
論文 参考訳(メタデータ) (2020-10-17T18:44:33Z) - Object Goal Navigation using Goal-Oriented Semantic Exploration [98.14078233526476]
本研究は,未確認環境における対象カテゴリーのインスタンスにナビゲートするオブジェクトゴールナビゲーションの問題を研究する。
本稿では,表層的なセマンティックマップを構築し,効率的に環境を探索する「ゴール指向セマンティック探索」というモジュールシステムを提案する。
論文 参考訳(メタデータ) (2020-07-01T17:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。