論文の概要: RobustNav: Towards Benchmarking Robustness in Embodied Navigation
- arxiv url: http://arxiv.org/abs/2106.04531v1
- Date: Tue, 8 Jun 2021 17:14:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 15:42:36.979384
- Title: RobustNav: Towards Benchmarking Robustness in Embodied Navigation
- Title(参考訳): RobustNav: 身体的ナビゲーションにおけるロバスト性のベンチマークを目指す
- Authors: Prithvijit Chattopadhyay, Judy Hoffman, Roozbeh Mottaghi, Aniruddha
Kembhavi
- Abstract要約: RobustNavは、視覚的またはダイナミックな汚職にさらされたときに、実施中のナビゲーションエージェントのパフォーマンスを定量化するフレームワークである。
データ強化や自己教師型適応といったロバスト性向上のための標準手法は, 耐ゼロショット性やナビゲーション性能の向上を図っている。
- 参考スコア(独自算出の注目度): 42.89815630148065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an attempt towards assessing the robustness of embodied navigation agents,
we propose RobustNav, a framework to quantify the performance of embodied
navigation agents when exposed to a wide variety of visual - affecting RGB
inputs - and dynamics - affecting transition dynamics - corruptions. Most
recent efforts in visual navigation have typically focused on generalizing to
novel target environments with similar appearance and dynamics characteristics.
With RobustNav, we find that some standard embodied navigation agents
significantly underperform (or fail) in the presence of visual or dynamics
corruptions. We systematically analyze the kind of idiosyncrasies that emerge
in the behavior of such agents when operating under corruptions. Finally, for
visual corruptions in RobustNav, we show that while standard techniques to
improve robustness such as data-augmentation and self-supervised adaptation
offer some zero-shot resistance and improvements in navigation performance,
there is still a long way to go in terms of recovering lost performance
relative to clean "non-corrupt" settings, warranting more research in this
direction. Our code is available at https://github.com/allenai/robustnav
- Abstract(参考訳): 具体化ナビゲーションエージェントのロバスト性を評価するための試みとして,rgb入力やダイナミクスに影響を及ぼす多種多様な視覚に晒された場合の具体化ナビゲーションエージェントのパフォーマンスを定量化するフレームワークである robustnav を提案する。
近年の視覚ナビゲーションの取り組みは、外観や動的特性に類似した新しいターゲット環境への一般化に重点を置いている。
RobustNavでは、視覚的あるいはダイナミックな汚職の存在下では、標準的な具体化ナビゲーションエージェントが著しく性能が低下(あるいは失敗)していることが分かりました。
我々は,このようなエージェントが腐敗下で動作する際に発生する特異性の種類を体系的に分析する。
最後に、ロバストnavの視覚的な腐敗に対して、データ提供や自己教師付き適応といった堅牢性を改善する標準的な技術はゼロショット耐性とナビゲーション性能の改善をもたらすが、クリーンな"非腐敗"設定と比較して失われたパフォーマンスを回復する上では、この方向の研究が必要である。
私たちのコードはhttps://github.com/allenai/robustnavで利用可能です。
関連論文リスト
- Towards Physically-Realizable Adversarial Attacks in Embodied Vision Navigation [18.218913010189237]
本稿では,学習可能なテクスチャと不透明度を持つ対向パッチをオブジェクトにアタッチすることで,ナビゲーションを具体化するための実用的な攻撃手法を提案する。
実験の結果,我々の敵パッチは航法成功率を約40%削減し,実用性,有効性,自然性において従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-16T08:21:22Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - Implicit Obstacle Map-driven Indoor Navigation Model for Robust Obstacle
Avoidance [16.57243997206754]
頑健な障害物回避のための暗黙的障害物マップ駆動屋内ナビゲーションフレームワークを提案する。
非ローカルなメモリアグリゲーションモジュールは、非ローカルネットワークを活用して、ターゲットセマンティクスとターゲットの向きの手がかりとの本質的な関係をモデル化するように設計されている。
論文 参考訳(メタデータ) (2023-08-24T15:10:28Z) - Vision-Based Autonomous Navigation for Unmanned Surface Vessel in
Extreme Marine Conditions [2.8983738640808645]
本稿では,極端海洋環境下での目標物追跡のための自律的視覚に基づくナビゲーション・フレームワークを提案する。
提案手法は砂嵐や霧による可視性低下下でのシミュレーションで徹底的に検証されている。
結果は、ベンチマークしたMBZIRCシミュレーションデータセット全体にわたる最先端のデハージング手法と比較される。
論文 参考訳(メタデータ) (2023-08-08T14:25:13Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - Diagnosing Vision-and-Language Navigation: What Really Matters [61.72935815656582]
視覚言語ナビゲーション(VLN)は、エージェントが自然言語の指示に従って視覚環境をナビゲートするマルチモーダルタスクである。
近年の研究では、室内および屋外のVLNタスクのパフォーマンス改善が鈍化している。
本研究では,ナビゲーション中のエージェントの焦点を明らかにするための一連の診断実験を行う。
論文 参考訳(メタデータ) (2021-03-30T17:59:07Z) - Integrating Egocentric Localization for More Realistic Point-Goal
Navigation Agents [90.65480527538723]
本研究では,ノイズ行動力学の下での自我行動の視覚的推定に依存するポイントゴールナビゲーションエージェントを開発した。
私たちのエージェントはCVPR 2020 Habitat ChallengeのPointNavトラックのランナーでした。
論文 参考訳(メタデータ) (2020-09-07T16:52:47Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。