論文の概要: Is Mapping Necessary for Realistic PointGoal Navigation?
- arxiv url: http://arxiv.org/abs/2206.00997v1
- Date: Thu, 2 Jun 2022 11:37:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 14:36:03.777972
- Title: Is Mapping Necessary for Realistic PointGoal Navigation?
- Title(参考訳): マッピングはリアルなポイントゴーアナビゲーションに必要か?
- Authors: Ruslan Partsey, Erik Wijmans, Naoki Yokoyama, Oles Dobosevych, Dhruv
Batra, Oleksandr Maksymets
- Abstract要約: 地図のないニューラルモデルは、標準データセットで100%成功できることを示す。
そして、この減少の主な原因、すなわちGPS+がないことを特定します。
我々は,人間のアノテーションのないデータ拡張技術を開発し,視覚計測のためのモデルを訓練する。
- 参考スコア(独自算出の注目度): 44.54452415882708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can an autonomous agent navigate in a new environment without building an
explicit map?
For the task of PointGoal navigation ('Go to $\Delta x$, $\Delta y$') under
idealized settings (no RGB-D and actuation noise, perfect GPS+Compass), the
answer is a clear 'yes' - map-less neural models composed of task-agnostic
components (CNNs and RNNs) trained with large-scale reinforcement learning
achieve 100% Success on a standard dataset (Gibson). However, for PointNav in a
realistic setting (RGB-D and actuation noise, no GPS+Compass), this is an open
question; one we tackle in this paper. The strongest published result for this
task is 71.7% Success.
First, we identify the main (perhaps, only) cause of the drop in performance:
the absence of GPS+Compass. An agent with perfect GPS+Compass faced with RGB-D
sensing and actuation noise achieves 99.8% Success (Gibson-v2 val). This
suggests that (to paraphrase a meme) robust visual odometry is all we need for
realistic PointNav; if we can achieve that, we can ignore the sensing and
actuation noise.
With that as our operating hypothesis, we scale the dataset and model size,
and develop human-annotation-free data-augmentation techniques to train models
for visual odometry. We advance the state of art on the Habitat Realistic
PointNav Challenge from 71% to 94% Success (+32, 4% relative) and 53% to 74%
SPL (+39, 6% relative). While our approach does not saturate or 'solve' this
dataset, this strong improvement combined with promising zero-shot sim2real
transfer (to a LoCoBot) provides evidence consistent with the hypothesis that
explicit mapping may not be necessary for navigation, even in a realistic
setting.
- Abstract(参考訳): 自律エージェントは明示的なマップを構築することなく、新しい環境をナビゲートできるのか?
PointGoalナビゲーションのタスク('Go to $\Delta x$, $\Delta y$')の理想的な設定(RGB-Dとアクティベーションノイズなし、完璧なGPS+Compass)では、大規模な強化学習でトレーニングされたタスク非依存のコンポーネント(CNNとRNN)で構成されるマップレスニューラルネットワークが、標準データセット(Gibson)で100%の成功を達成する。
しかし、現実的な環境でのPointNav(RGB-Dとアクティベーションノイズなし、GPS+コンパスなし)にとっては、これはオープンな質問だ。
このタスクの最も強い成果は71.7%の成功である。
まず、GPS+Compassの欠如という、パフォーマンス低下の主な原因(おそらくは唯一のこと)を特定します。
RGB-Dセンシングとアクティベーションノイズに直面する完璧なGPS+コンパスを持つエージェントは、99.8%の成功(Gibson-v2 val)を達成する。
このことは、(ミームを言い換えれば)堅牢な視覚計測が、現実的なPointNavに必要なすべてであることを示唆している。
運用仮説として、データセットとモデルサイズをスケールし、人間のアノテーションのないデータ拡張技術を開発し、視覚計測のためのモデルをトレーニングします。
我々は,ハビタブル・リアルなpointnavチャレンジを71%から94%成功(+32,4%相対)、53%から74%spl(+39,6%相対)に進める。
当社のアプローチではデータセットの飽和や“解決”は行いませんが、この強力な改善と(locobotへの)ゼロショットsim2実数転送の約束が組み合わさることで、現実的な設定であっても、明示的なマッピングはナビゲーションに必要ではないという仮説と一致した証拠が得られます。
関連論文リスト
- GaussNav: Gaussian Splatting for Visual Navigation [92.13664084464514]
インスタンスイメージゴールナビゲーション(IIN)では、エージェントが探索されていない環境で、目標画像に描かれた特定のオブジェクトを見つける必要がある。
我々のフレームワークは3次元ガウススプラッティングに基づく新しい地図表現を構築する(3DGS)
我々のフレームワークは、Habitat-Matterport 3D(HM3D)データセットに挑戦するPath Length(SPL)が0.252から0.578に重み付けしたSuccessの増加によって証明された、パフォーマンスの著しい飛躍を示す。
論文 参考訳(メタデータ) (2024-03-18T09:56:48Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - VoroNav: Voronoi-based Zero-shot Object Navigation with Large Language
Model [28.79971953667143]
VoroNavは、リアルタイムで構築されたセマンティックマップから探索経路と計画ノードを抽出する意味探索フレームワークである。
トポロジカルおよびセマンティック情報を活用することで、VoroNavは大きな言語モデルで容易に解釈できるパスとイメージのテキストベースの記述を設計する。
論文 参考訳(メタデータ) (2024-01-05T08:05:07Z) - Scaling Data Generation in Vision-and-Language Navigation [116.95534559103788]
本稿では,学習のための大規模データ生成に有効なパラダイムを提案する。
我々は、HM3DとGibsonのデータセットから1200以上のフォトリアリスティック環境を適用し、490万の命令軌道対を合成する。
我々の大規模データセットのおかげで、既存のエージェントの性能は(以前のSoTAでは+11%絶対)、単純な模倣学習によってR2Rテストの分割で80%の単ラン成功率で大幅に向上できる。
論文 参考訳(メタデータ) (2023-07-28T16:03:28Z) - One-4-All: Neural Potential Fields for Embodied Navigation [10.452316044889177]
実世界のナビゲーションには高次元RGB画像を用いた長期計画が必要である。
One-4-All (O4A) は、グラフのないエンドツーエンドのナビゲーションパイプラインを得るために、自己教師付きおよび多様体学習を活用する方法である。
O4Aは,8つの模擬ギブソン屋内環境において長距離目標を達成することができることを示す。
論文 参考訳(メタデータ) (2023-03-07T16:25:41Z) - Unsupervised Visual Odometry and Action Integration for PointGoal
Navigation in Indoor Environment [14.363948775085534]
屋内環境におけるポイントゴールナビゲーションは、個人ロボットが特定の地点に向かうための基本的なタスクである。
GPS信号を使わずにPointGoalナビゲーションの精度を向上させるために、ビジュアル・オドメトリー(VO)を用い、教師なしで訓練された新しいアクション統合モジュール(AIM)を提案する。
実験により,提案システムは良好な結果が得られ,Gibsonデータセット上で部分的に教師付き学習アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-10-02T03:12:03Z) - The Surprising Effectiveness of Visual Odometry Techniques for Embodied
PointGoal Navigation [100.08270721713149]
PointGoalナビゲーションは、シミュレーションされたEmbodied AI環境で導入された。
最近の進歩は、ほぼ完璧な精度でPointGoalナビゲーションタスクを解く(99.6%の成功)
本研究では,ナビゲーションポリシにビジュアルオドメトリ技術を統合することで,人気の高いHabitat PointNavベンチマークの最先端性を大きなマージンで向上することを示す。
論文 参考訳(メタデータ) (2021-08-26T02:12:49Z) - Sim-to-Real Transfer for Vision-and-Language Navigation [70.86250473583354]
本研究では,従来は目に見えなかった環境下でロボットを解放し,制約のない自然言語ナビゲーション指示に従うという課題について検討する。
VLN(Vision-and-Language Navigation)の課題に関する最近の研究は、シミュレーションにおいて大きな進歩を遂げている。
ロボット工学における本研究の意義を評価するため,シミュレーションで訓練されたVLNエージェントを物理ロボットに転送する。
論文 参考訳(メタデータ) (2020-11-07T16:49:04Z) - MVP: Unified Motion and Visual Self-Supervised Learning for Large-Scale
Robotic Navigation [23.54696982881734]
本稿では,大規模かつ目標駆動型ナビゲーションタスクのための新しい動き認識手法であるMVPを提案する。
我々のMVPベースの手法は、より速く学習でき、極端な環境変化とGPSデータの両方に対してより正確で堅牢です。
我々は,Oxford Robotcar と Nordland Railway の2つの大規模実世界のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2020-03-02T05:19:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。