論文の概要: Integrating Egocentric Localization for More Realistic Point-Goal
Navigation Agents
- arxiv url: http://arxiv.org/abs/2009.03231v1
- Date: Mon, 7 Sep 2020 16:52:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:02:40.668290
- Title: Integrating Egocentric Localization for More Realistic Point-Goal
Navigation Agents
- Title(参考訳): よりリアルなポイントゴールナビゲーションエージェントのためのEgocentric Localizationの統合
- Authors: Samyak Datta, Oleksandr Maksymets, Judy Hoffman, Stefan Lee, Dhruv
Batra, Devi Parikh
- Abstract要約: 本研究では,ノイズ行動力学の下での自我行動の視覚的推定に依存するポイントゴールナビゲーションエージェントを開発した。
私たちのエージェントはCVPR 2020 Habitat ChallengeのPointNavトラックのランナーでした。
- 参考スコア(独自算出の注目度): 90.65480527538723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has presented embodied agents that can navigate to point-goal
targets in novel indoor environments with near-perfect accuracy. However, these
agents are equipped with idealized sensors for localization and take
deterministic actions. This setting is practically sterile by comparison to the
dirty reality of noisy sensors and actuations in the real world -- wheels can
slip, motion sensors have error, actuations can rebound. In this work, we take
a step towards this noisy reality, developing point-goal navigation agents that
rely on visual estimates of egomotion under noisy action dynamics. We find
these agents outperform naive adaptions of current point-goal agents to this
setting as well as those incorporating classic localization baselines. Further,
our model conceptually divides learning agent dynamics or odometry (where am
I?) from task-specific navigation policy (where do I want to go?). This enables
a seamless adaption to changing dynamics (a different robot or floor type) by
simply re-calibrating the visual odometry model -- circumventing the expense of
re-training of the navigation policy. Our agent was the runner-up in the
PointNav track of CVPR 2020 Habitat Challenge.
- Abstract(参考訳): 近年の研究では、新しい屋内環境において、ほぼ完璧な精度でポイントゴール目標まで移動可能なエンボディエージェントが紹介されている。
しかし、これらのエージェントは、局所化と決定論的行動を取るための理想的なセンサーを備えている。
この設定は、現実のノイズの多いセンサーやアクティベーションの汚れた現実と比較すると、実質的に不安定だ。車輪が滑り、モーションセンサーがエラー、アクティベーションがリバウンドする。
本研究では,このノイズの多い現実に向けて一歩を踏み出し,ノイズの多い行動ダイナミクス下での自我の視覚的な推定に依存するポイントゴーアのナビゲーションエージェントを開発した。
これらのエージェントは、古典的な局所化ベースラインを組み込んだエージェントと同様に、現在のポイントゴールエージェントの自然な適応よりも優れている。
さらに,本モデルでは,学習エージェントのダイナミックスやオドメトリー(私はどこにいるのか)を,タスク固有のナビゲーションポリシー(どこへ行きたいのか?
これにより、ナビゲーションポリシーの再トレーニングのコストを回避し、視覚計測モデルを再調整することで、ダイナミクス(異なるロボットやフロアタイプ)の変更にシームレスに適応することが可能になります。
私たちのエージェントはCVPR 2020 Habitat ChallengeのPointNavトラックのランナーでした。
関連論文リスト
- Learning to navigate efficiently and precisely in real environments [14.52507964172957]
Embodied AIの文献は、HabitatやAI-Thorといったシミュレータで訓練されたエンドツーエンドエージェントに焦点を当てている。
本研究では,sim2realのギャップを最小限に抑えたシミュレーションにおけるエージェントのエンドツーエンドトレーニングについて検討する。
論文 参考訳(メタデータ) (2024-01-25T17:50:05Z) - Dfferentiable Raycasting for Self-supervised Occupancy Forecasting [52.61762537741392]
自動運転のための運動計画では、エゴ車の周囲の環境が時間とともにどのように進化するかを学ぶ必要がある。
本稿では,自由空間のようなビュー依存表現の自然な代替手段として,幾何学的占有を用いる。
私たちの重要な洞察は、差別化可能なレイキャストを使用して、将来の占有率予測を、将来のLiDARスイープ予測に"レンダリング"することです。
論文 参考訳(メタデータ) (2022-10-04T21:35:21Z) - Self-Supervised Domain Adaptation for Visual Navigation with Global Map
Consistency [6.385006149689549]
本稿では,視覚ナビゲーションエージェントの自己教師型適応手法を提案する。
提案課題は完全に自己監督的であり, 地味なポーズデータや明示的なノイズモデルからの監視は不要である。
実験の結果,提案課題はエージェントが新しいノイズの多い環境への移動を成功させるのに役立つことがわかった。
論文 参考訳(メタデータ) (2021-10-14T07:14:36Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - Success Weighted by Completion Time: A Dynamics-Aware Evaluation
Criteria for Embodied Navigation [42.978177196888225]
我々は,移動ロボットのナビゲーション性能を評価するための新しい指標であるCompletion Time (SCT) により,Successを重み付けした。
RRT*-ユニサイクル(RRT*-Unicycle)も提案する。
論文 参考訳(メタデータ) (2021-03-14T20:13:06Z) - Guided Navigation from Multiple Viewpoints using Qualitative Spatial
Reasoning [0.0]
本研究の目的は、感覚障害者ロボットを目標地点に誘導するアルゴリズムを開発することである。
この研究で考慮される主な課題は、自律的なエージェントのグループを考えると、一連のハイレベルなコマンドを生成できるアルゴリズムの開発と評価である。
論文 参考訳(メタデータ) (2020-11-03T00:34:26Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - Improving Target-driven Visual Navigation with Attention on 3D Spatial
Relationships [52.72020203771489]
3次元屋内シーンにおける深部強化学習(DRL)を用いた目標駆動型視覚ナビゲーションについて検討した。
提案手法は視覚特徴と3次元空間表現を組み合わせてナビゲーションポリシーを学習する。
AI2-THORで実施した我々の実験は、SRとSPLの指標において、モデルがベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T08:46:38Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。