論文の概要: Robot Navigation in Unseen Spaces using an Abstract Map
- arxiv url: http://arxiv.org/abs/2001.11684v2
- Date: Fri, 15 May 2020 05:31:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 06:57:58.046682
- Title: Robot Navigation in Unseen Spaces using an Abstract Map
- Title(参考訳): 抽象地図を用いた無人空間でのロボットナビゲーション
- Authors: Ben Talbot, Feras Dayoub, Peter Corke, Gordon Wyeth
- Abstract要約: ロボットナビゲーションシステムでは,人間と同じ記号空間情報を用いて,目立たない環境を意図的にナビゲートする。
本稿では,動的システムを用いて抽象地図の縮尺可能な空間モデルを作成する方法を示し,シンボルナビゲーションの領域における将来的な作業を促進するためのオープンソース実装を提供する。
本稿は,人間のナビゲーション戦略を質的に分析し,目立たない環境におけるロボットの象徴的なナビゲーション能力が今後どのように改善されるかについて,さらなる知見を提供する。
- 参考スコア(独自算出の注目度): 11.473894284561878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human navigation in built environments depends on symbolic spatial
information which has unrealised potential to enhance robot navigation
capabilities. Information sources such as labels, signs, maps, planners, spoken
directions, and navigational gestures communicate a wealth of spatial
information to the navigators of built environments; a wealth of information
that robots typically ignore. We present a robot navigation system that uses
the same symbolic spatial information employed by humans to purposefully
navigate in unseen built environments with a level of performance comparable to
humans. The navigation system uses a novel data structure called the abstract
map to imagine malleable spatial models for unseen spaces from spatial symbols.
Sensorimotor perceptions from a robot are then employed to provide purposeful
navigation to symbolic goal locations in the unseen environment. We show how a
dynamic system can be used to create malleable spatial models for the abstract
map, and provide an open source implementation to encourage future work in the
area of symbolic navigation. Symbolic navigation performance of humans and a
robot is evaluated in a real-world built environment. The paper concludes with
a qualitative analysis of human navigation strategies, providing further
insights into how the symbolic navigation capabilities of robots in unseen
built environments can be improved in the future.
- Abstract(参考訳): 構築された環境における人間のナビゲーションは、ロボットのナビゲーション能力を向上する未実現の可能性を秘めている象徴的な空間情報に依存する。
ラベル、標識、地図、プランナー、話し手の指示、ナビゲーションのジェスチャーといった情報ソースは、構築された環境のナビゲーターに豊富な空間情報を伝える。
本稿では,人間に匹敵する性能を有する非知覚環境において,人間と同じ象徴的空間情報を用いて故意にナビゲートするロボットナビゲーションシステムを提案する。
ナビゲーションシステムは抽象地図と呼ばれる新しいデータ構造を用いて、空間記号から見えない空間に対する可換空間モデルを想像する。
ロボットからの知覚は、見えない環境における象徴的な目標位置への目的のナビゲーションを提供するために使用される。
本稿では,動的システムを用いて抽象地図の縮尺可能な空間モデルを作成する方法を示し,シンボルナビゲーションの領域における将来的な作業を促進するためのオープンソース実装を提供する。
実環境において,人間とロボットの記号的ナビゲーション性能を評価する。
本稿は,人間のナビゲーション戦略を質的に分析し,目立たない環境におけるロボットの象徴的なナビゲーション能力が今後どのように改善されるかについて,さらなる知見を提供する。
関連論文リスト
- Aligning Robot Navigation Behaviors with Human Intentions and Preferences [2.9914612342004503]
この論文は,「自律移動ロボットのナビゲーション行動と人間の意図と嗜好を一致させるために,機械学習手法をどのように利用できるのか?」という疑問に答えることを目的としている。
第一に、この論文は、意図したナビゲーションタスクの人間が提供する実演を模倣することにより、ナビゲーション行動を学ぶための新しいアプローチを導入している。
第二に、この論文は、視覚的な地形認識を自己監督的に学習することで、移動ロボットの地形認識オフロードナビゲーションを強化する2つのアルゴリズムを導入している。
論文 参考訳(メタデータ) (2024-09-16T03:45:00Z) - CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Object Goal Navigation Based on Semantics and RGB Ego View [9.702784248870522]
本稿では,RGBエゴビューを前提として,サービスロボットが屋内環境のセマンティックな意思決定を行えるようにするためのアーキテクチャと方法論を提案する。
ロボットはジオセムマップ(幾何マップと意味マップのリレーショナル組み合わせ)に基づいてナビゲートする。
提案手法は, 平均完了時間に対するゲーミフィケーション評価において, 人間のユーザよりも優れていた。
論文 参考訳(メタデータ) (2022-10-20T19:23:08Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。