論文の概要: A Landmark-Aware Visual Navigation Dataset
- arxiv url: http://arxiv.org/abs/2402.14281v1
- Date: Thu, 22 Feb 2024 04:43:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 16:21:18.190469
- Title: A Landmark-Aware Visual Navigation Dataset
- Title(参考訳): ランドマーク対応ビジュアルナビゲーションデータセット
- Authors: Faith Johnson, Bryan Bo Cao, Kristin Dana, Shubham Jain, Ashwin Ashok
- Abstract要約: ランドマークを意識したビジュアルナビゲーションデータセットを提示し、人中心の探索ポリシーと地図構築の教師あり学習を可能にする。
我々は,仮想環境と実環境を探索するアノテータとして,RGB観測と人間のポイントクリックペアを収集する。
私たちのデータセットは、屋内環境の部屋や屋外の通路など、幅広い場面をカバーしています。
- 参考スコア(独自算出の注目度): 6.564789361460195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Map representation learned by expert demonstrations has shown promising
research value. However, recent advancements in the visual navigation field
face challenges due to the lack of human datasets in the real world for
efficient supervised representation learning of the environments. We present a
Landmark-Aware Visual Navigation (LAVN) dataset to allow for supervised
learning of human-centric exploration policies and map building. We collect RGB
observation and human point-click pairs as a human annotator explores virtual
and real-world environments with the goal of full coverage exploration of the
space. The human annotators also provide distinct landmark examples along each
trajectory, which we intuit will simplify the task of map or graph building and
localization. These human point-clicks serve as direct supervision for waypoint
prediction when learning to explore in environments. Our dataset covers a wide
spectrum of scenes, including rooms in indoor environments, as well as walkways
outdoors. Dataset is available at DOI: 10.5281/zenodo.10608067.
- Abstract(参考訳): 専門家による地図表現は有望な研究価値を示している。
しかし、視覚ナビゲーション分野の最近の進歩は、環境の効率的な教師付き表現学習のための現実世界における人間のデータセットの欠如による課題に直面している。
ランドマーク対応ビジュアルナビゲーション(LAVN)データセットを提示し、人間中心の探索ポリシーと地図構築の教師あり学習を可能にする。
rgbの観測と人間のポイントクリックペアを収集し、人間の注釈が仮想環境と現実世界の環境を探索する。
人間のアノテータは、それぞれの軌跡に沿って明確なランドマークの例も提供し、マップやグラフの構築やローカライゼーションのタスクを単純化します。
これらのヒューマンポイントクリックは、環境を探索する学習時にウェイポイント予測を直接監督する役割を担っている。
私たちのデータセットは、屋内環境の部屋や屋外の通路など、幅広い場面をカバーしています。
DatasetはDOI: 10.5281/zenodo.10608067で利用可能である。
関連論文リスト
- Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Palm up: Playing in the Latent Manifold for Unsupervised Pretraining [31.92145741769497]
本稿では,多種多様なデータセットを使用しながら探索行動を示すアルゴリズムを提案する。
私たちのキーとなるアイデアは、静的データセットに事前トレーニングされた深層生成モデルを活用し、潜在空間に動的モデルを導入することです。
次に、教師なし強化学習アルゴリズムを用いて、この環境を探索し、収集したデータに基づいて教師なし表現学習を行う。
論文 参考訳(メタデータ) (2022-10-19T22:26:12Z) - Weakly-Supervised Multi-Granularity Map Learning for Vision-and-Language
Navigation [87.52136927091712]
我々は,ロボットエージェントが言語指導によって記述された経路をたどって,環境の中をナビゲートするよう訓練する,現実的かつ困難な問題に対処する。
高精度かつ効率的なナビゲーションを実現するためには,環境オブジェクトの空間的位置と意味情報の両方を正確に表現した地図を構築することが重要である。
より包括的にオブジェクトを表現するために,オブジェクトの細粒度(色,テクスチャなど)とセマンティッククラスの両方を含む多粒度マップを提案する。
論文 参考訳(メタデータ) (2022-10-14T04:23:27Z) - Pathdreamer: A World Model for Indoor Navigation [62.78410447776939]
本研究では,新しい屋内環境をナビゲートするエージェントの視覚的世界モデルPathdreamerを紹介する。
過去に1つ以上の視覚観測がなされると、パスドレーマーは可視性の高い高解像度の360度視覚観測を生成する。
不確実性の高い地域では、Pathdreamerは多様なシーンを予測でき、エージェントは複数の現実的な結果をサンプリングすることができる。
論文 参考訳(メタデータ) (2021-05-18T18:13:53Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。