論文の概要: The Surprising Effectiveness of Visual Odometry Techniques for Embodied
PointGoal Navigation
- arxiv url: http://arxiv.org/abs/2108.11550v1
- Date: Thu, 26 Aug 2021 02:12:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-28 00:34:18.153249
- Title: The Surprising Effectiveness of Visual Odometry Techniques for Embodied
PointGoal Navigation
- Title(参考訳): 身体的ポイントゴールナビゲーションにおけるビジュアルオドメトリ手法のサプライズ効果
- Authors: Xiaoming Zhao, Harsh Agrawal, Dhruv Batra, Alexander Schwing
- Abstract要約: PointGoalナビゲーションは、シミュレーションされたEmbodied AI環境で導入された。
最近の進歩は、ほぼ完璧な精度でPointGoalナビゲーションタスクを解く(99.6%の成功)
本研究では,ナビゲーションポリシにビジュアルオドメトリ技術を統合することで,人気の高いHabitat PointNavベンチマークの最先端性を大きなマージンで向上することを示す。
- 参考スコア(独自算出の注目度): 100.08270721713149
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: It is fundamental for personal robots to reliably navigate to a specified
goal. To study this task, PointGoal navigation has been introduced in simulated
Embodied AI environments. Recent advances solve this PointGoal navigation task
with near-perfect accuracy (99.6% success) in photo-realistically simulated
environments, assuming noiseless egocentric vision, noiseless actuation, and
most importantly, perfect localization. However, under realistic noise models
for visual sensors and actuation, and without access to a "GPS and Compass
sensor," the 99.6%-success agents for PointGoal navigation only succeed with
0.3%. In this work, we demonstrate the surprising effectiveness of visual
odometry for the task of PointGoal navigation in this realistic setting, i.e.,
with realistic noise models for perception and actuation and without access to
GPS and Compass sensors. We show that integrating visual odometry techniques
into navigation policies improves the state-of-the-art on the popular Habitat
PointNav benchmark by a large margin, improving success from 64.5% to 71.7%
while executing 6.4 times faster.
- Abstract(参考訳): パーソナルロボットは、特定の目標に確実にナビゲートすることが基本である。
このタスクを研究するために、シミュレーションされたEmbodied AI環境にPointGoalナビゲーションが導入されている。
近年の進歩は、ノイズのないエゴセントリックな視覚、ノイズのないアクチュエーター、そして最も重要なことに完璧な位置決めを仮定して、写真リアルな環境においてほぼ完璧な精度(99.6%の成功)でPointGoalナビゲーションタスクを解決している。
しかし、視覚センサーとアクティベーションのための現実的なノイズモデルの下では、GPSとコンパスセンサーにアクセスできないため、ポイントゴールナビゲーションの99.6%は0.3%しか成功していない。
本研究では,この現実的な環境でのポイントゴールナビゲーションのタスク,すなわち,GPSやコンパスセンサを利用せず,知覚とアクティベーションのための現実的なノイズモデルにおいて,視覚計測の驚くべき効果を示す。
ナビゲーションポリシにビジュアルオドメトリ技術を統合することで,人気の高いHabitat PointNavベンチマークの最先端性を大きなマージンで改善し,64.5%から71.7%に向上し,6.4倍の高速化を実現した。
関連論文リスト
- TopoNav: Topological Navigation for Efficient Exploration in Sparse Reward Environments [0.6597195879147555]
TopoNavは、スパース・リワード設定における効率的な目標指向の探索とナビゲーションのための新しいフレームワークである。
TopoNavは環境のトポロジカルマップを動的に構築し、主要な場所と経路をキャプチャする。
本研究では,Clearpath Jackalロボットを用いて,シミュレーションと実世界のオフロード環境におけるTopoNavの評価を行った。
論文 参考訳(メタデータ) (2024-02-06T15:05:25Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - Unsupervised Visual Odometry and Action Integration for PointGoal
Navigation in Indoor Environment [14.363948775085534]
屋内環境におけるポイントゴールナビゲーションは、個人ロボットが特定の地点に向かうための基本的なタスクである。
GPS信号を使わずにPointGoalナビゲーションの精度を向上させるために、ビジュアル・オドメトリー(VO)を用い、教師なしで訓練された新しいアクション統合モジュール(AIM)を提案する。
実験により,提案システムは良好な結果が得られ,Gibsonデータセット上で部分的に教師付き学習アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-10-02T03:12:03Z) - Is Mapping Necessary for Realistic PointGoal Navigation? [44.54452415882708]
地図のないニューラルモデルは、標準データセットで100%成功できることを示す。
そして、この減少の主な原因、すなわちGPS+がないことを特定します。
我々は,人間のアノテーションのないデータ拡張技術を開発し,視覚計測のためのモデルを訓練する。
論文 参考訳(メタデータ) (2022-06-02T11:37:27Z) - A Saliency-Guided Street View Image Inpainting Framework for Efficient
Last-Meters Wayfinding [13.92492610110197]
本稿では,画像ベースウェイフィンディングにおける視覚的障害を軽減するために,サリエンシ誘導型画像塗装フレームワークを提案する。
目的は、人間の視覚的注意を物体の邪魔から目的地関連の物体にリダイレクトすることで、最後のメートルでより効率的で正確なウェイフィニングを実現することである。
論文 参考訳(メタデータ) (2022-05-14T00:16:38Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Integrating Egocentric Localization for More Realistic Point-Goal
Navigation Agents [90.65480527538723]
本研究では,ノイズ行動力学の下での自我行動の視覚的推定に依存するポイントゴールナビゲーションエージェントを開発した。
私たちのエージェントはCVPR 2020 Habitat ChallengeのPointNavトラックのランナーでした。
論文 参考訳(メタデータ) (2020-09-07T16:52:47Z) - MVP: Unified Motion and Visual Self-Supervised Learning for Large-Scale
Robotic Navigation [23.54696982881734]
本稿では,大規模かつ目標駆動型ナビゲーションタスクのための新しい動き認識手法であるMVPを提案する。
我々のMVPベースの手法は、より速く学習でき、極端な環境変化とGPSデータの両方に対してより正確で堅牢です。
我々は,Oxford Robotcar と Nordland Railway の2つの大規模実世界のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2020-03-02T05:19:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。