論文の概要: Generating Landmark Navigation Instructions from Maps as a Graph-to-Text
Problem
- arxiv url: http://arxiv.org/abs/2012.15329v1
- Date: Wed, 30 Dec 2020 21:22:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 06:06:36.040974
- Title: Generating Landmark Navigation Instructions from Maps as a Graph-to-Text
Problem
- Title(参考訳): グラフ-テキスト問題としての地図からのランドマークナビゲーション命令の生成
- Authors: Raphael Schumann and Stefan Riezler
- Abstract要約: OpenStreetMap表現を入力として取り、ナビゲーション命令の生成を学習するニューラルモデルを提示する。
われわれの研究は、ストリートビューで人間のナビゲーションによって検証された7,672件のクラウドソースインスタンスのデータセットに基づいている。
- 参考スコア(独自算出の注目度): 15.99072005190786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Car-focused navigation services are based on turns and distances of named
streets, whereas navigation instructions naturally used by humans are centered
around physical objects called landmarks. We present a neural model that takes
OpenStreetMap representations as input and learns to generate navigation
instructions that contain visible and salient landmarks from human natural
language instructions. Routes on the map are encoded in a location- and
rotation-invariant graph representation that is decoded into natural language
instructions. Our work is based on a novel dataset of 7,672 crowd-sourced
instances that have been verified by human navigation in Street View. Our
evaluation shows that the navigation instructions generated by our system have
similar properties as human-generated instructions, and lead to successful
human navigation in Street View.
- Abstract(参考訳): 自動車に焦点をあてたナビゲーションサービスは、名前付き通りの曲がり角と距離に基づいており、人間によって自然に使用されるナビゲーション指示は、ランドマークと呼ばれる物理的オブジェクトを中心にしている。
本稿では,OpenStreetMap表現を入力とし,人間の自然言語命令から可視的かつ健全なランドマークを含むナビゲーション命令を生成するニューラルネットワークを提案する。
地図上の経路は、自然言語命令にデコードされる位置および回転不変グラフ表現に符号化される。
われわれの研究は、ストリートビューで人間のナビゲーションによって検証された7,672件のクラウドソースインスタンスのデータセットに基づいている。
評価の結果,本システムで生成したナビゲーション命令は,人間が生成した命令と類似しており,ストリートビューでのナビゲーションが成功していることがわかった。
関連論文リスト
- CityNav: Language-Goal Aerial Navigation Dataset with Geographic Information [25.51740922661166]
ビジョン・アンド・ランゲージナビゲーション(VLN)は、視覚的および言語的手がかりを統合することで、現実の環境を通して自律的なエージェントを誘導することを目的としている。
実都市の3次元環境における言語誘導型航法用に明示的に設計された新しいデータセットであるCityNavを紹介する。
CityNavは、新たに開発されたWebベースの3Dシミュレータを通じて収集された、人間の実証軌道と組み合わせた32kの自然言語記述で構成されている。
論文 参考訳(メタデータ) (2024-06-20T12:08:27Z) - Semantic Map-based Generation of Navigation Instructions [9.197756644049862]
画像キャプションタスクとして問題をフレーミングすることでナビゲーション命令生成に新たなアプローチを提案する。
従来のアプローチでは、ナビゲーション命令を生成するために一連のパノラマ画像を使用する。
セマンティックマップを用いた命令生成のためのベンチマークデータセットを提案し、初期モデルを提案し、人に対して、生成した命令の質を手動で評価するよう依頼する。
論文 参考訳(メタデータ) (2024-03-28T17:27:44Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Weakly-Supervised Multi-Granularity Map Learning for Vision-and-Language
Navigation [87.52136927091712]
我々は,ロボットエージェントが言語指導によって記述された経路をたどって,環境の中をナビゲートするよう訓練する,現実的かつ困難な問題に対処する。
高精度かつ効率的なナビゲーションを実現するためには,環境オブジェクトの空間的位置と意味情報の両方を正確に表現した地図を構築することが重要である。
より包括的にオブジェクトを表現するために,オブジェクトの細粒度(色,テクスチャなど)とセマンティッククラスの両方を含む多粒度マップを提案する。
論文 参考訳(メタデータ) (2022-10-14T04:23:27Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Find a Way Forward: a Language-Guided Semantic Map Navigator [53.69229615952205]
本稿では,新たな視点で言語誘導ナビゲーションの問題に対処する。
ロボットが自然言語の指示を実行し、地図観測に基づいて目標位置へ移動できるようにする。
提案手法は特に長距離ナビゲーションの場合において顕著な性能向上をもたらす。
論文 参考訳(メタデータ) (2022-03-07T07:40:33Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - CrossMap Transformer: A Crossmodal Masked Path Transformer Using Double
Back-Translation for Vision-and-Language Navigation [11.318892271652695]
自然言語命令で案内されるナビゲーションは、ユーザと自然に対話する国内サービスロボットに特に適している。
このタスクは、自然言語のナビゲーション命令が与えられた特定の目的地につながる一連のアクションの予測を含む。
言語的特徴と視覚的特徴を符号化して経路を逐次生成するCrossMap Transformerネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-01T09:03:50Z) - From Route Instructions to Landmark Graphs [0.30458514384586394]
ランドマークは人々がナビゲートする方法の中心であるが、ほとんどのナビゲーション技術はランドマークを表現に組み込んでいない。
ランドマークグラフ生成タスクを提案し、これらのグラフを生成するための完全なエンドツーエンドのニューラルアプローチを提案する。
論文 参考訳(メタデータ) (2020-02-05T22:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。