論文の概要: Auxiliary Tasks and Exploration Enable ObjectNav
- arxiv url: http://arxiv.org/abs/2104.04112v1
- Date: Thu, 8 Apr 2021 23:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 13:57:04.621138
- Title: Auxiliary Tasks and Exploration Enable ObjectNav
- Title(参考訳): 補助タスクと探索を可能にするobjectnav
- Authors: Joel Ye, Dhruv Batra, Abhishek Das, and Erik Wijmans
- Abstract要約: 補助学習タスクと探索報酬を追加することで,汎用学習エージェントを再生成する。
われわれのエージェントは24.5%の成功、8.1%のSPL、それぞれ37%と8%の相対的な改善を達成している。
- 参考スコア(独自算出の注目度): 48.314102158070874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ObjectGoal Navigation (ObjectNav) is an embodied task wherein agents are to
navigate to an object instance in an unseen environment. Prior works have shown
that end-to-end ObjectNav agents that use vanilla visual and recurrent modules,
e.g. a CNN+RNN, perform poorly due to overfitting and sample inefficiency. This
has motivated current state-of-the-art methods to mix analytic and learned
components and operate on explicit spatial maps of the environment. We instead
re-enable a generic learned agent by adding auxiliary learning tasks and an
exploration reward. Our agents achieve 24.5% success and 8.1% SPL, a 37% and 8%
relative improvement over prior state-of-the-art, respectively, on the Habitat
ObjectNav Challenge. From our analysis, we propose that agents will act to
simplify their visual inputs so as to smooth their RNN dynamics, and that
auxiliary tasks reduce overfitting by minimizing effective RNN dimensionality;
i.e. a performant ObjectNav agent that must maintain coherent plans over long
horizons does so by learning smooth, low-dimensional recurrent dynamics. Site:
https://joel99.github.io/objectnav/
- Abstract(参考訳): ObjectGoal Navigation(ObjectNav)は、エージェントが見えない環境でオブジェクトインスタンスにナビゲートする、具体化されたタスクである。
以前の研究では、バニラ視覚およびリカレントモジュールを使用するエンドツーエンドのObjectNavエージェントが示されている。
CNN+RNNは、過度な適合とサンプルの非効率のために、性能が良くない。
これにより、現在の最先端の手法では、分析および学習されたコンポーネントを混合し、環境の明示的な空間マップを操作できる。
代わりに、補助的な学習タスクと探索報酬を追加することで、汎用的な学習エージェントを再利用する。
我々のエージェントは、Habitat ObjectNav Challengeにおいて、24.5%の成功率と8.1%のSPL、それぞれ37%と8%の相対的な改善を達成した。
本分析から, エージェントは, RNNのダイナミックスを円滑にするために視覚入力を単純化し, 有効なRNN次元を最小化することで, 補助的なタスクの過度な適合を抑えることを提案する。
高性能なObjectNavエージェントは、滑らかで低次元のリカレントダイナミクスを学習することで、長い水平線上でコヒーレントな計画を維持する必要がある。
サイト: https://joel99.github.io/objectnav/
関連論文リスト
- Language-Based Augmentation to Address Shortcut Learning in Object Goal
Navigation [0.0]
ObjectNavにおけるショートカット学習の理解を深めることを目指しています。
本研究では,SOTA(State-of-the-art)のObjectNavメソッドを,そうでない環境へ一般化する過程を観察する。
エージェントは、対象物の部屋の関連する壁の色を単に検索することで、対象物へのナビゲートを学習する。
論文 参考訳(メタデータ) (2024-02-07T18:44:27Z) - SayNav: Grounding Large Language Models for Dynamic Planning to
Navigation in New Environments [15.025010860725338]
我々は,Large Language Models (LLMs) からの人間の知識を活用し,複雑なナビゲーションタスクへの効率的な一般化を行う新しいアプローチであるSayNavを提案する。
SayNavは、探索された環境の3Dシーングラフを漸進的に構築する、新しい接地メカニズムを使用している。
我々は,多目的ナビゲーションタスクのSayNavを評価する。
論文 参考訳(メタデータ) (2023-09-08T02:24:37Z) - OVRL-V2: A simple state-of-art baseline for ImageNav and ObjectNav [62.32806118504701]
我々は、ImageNavタスクとObjectNavタスクの両方で、最先端の結果を達成する単一のニューラルネットワークアーキテクチャを提案する。
このような汎用的な手法は、設計の単純さ、利用可能な計算での正のスケーリング、複数のタスクへの多用途適用の利点を提供する。
論文 参考訳(メタデータ) (2023-03-14T11:15:37Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - MultiON: Benchmarking Semantic Map Memory using Multi-Object Navigation [23.877609358505268]
最近の研究は、地図のようなメモリが長距離ナビゲーションタスクに有用であることを示している。
本稿では,実環境において,エピソード特有のオブジェクト列へのナビゲーションを必要とするマルチオンタスクを提案する。
様々なエージェントモデルがナビゲーションタスクの複雑度をまたいでどのように振る舞うかを検討する。
論文 参考訳(メタデータ) (2020-12-07T18:42:38Z) - ArraMon: A Joint Navigation-Assembly Instruction Interpretation Task in
Dynamic Environments [85.81157224163876]
我々は、収集したオブジェクトを組み立てるビジョン・アンド・ランゲージナビゲーションとオブジェクト参照表現理解を組み合わせることで、新しい共同ナビゲーション・アンド・アセンブリタスク、ArraMonを作成します。
この作業中、エージェントは、複雑で現実的な屋外環境において、自然言語の指示に基づいてナビゲートすることで、異なる対象物を1対1で見つけ、収集するよう依頼される。
我々は,いくつかのベースラインモデル(積分とバイアス)とメトリクス(nDTW, CTC, rPOD, PTC)の結果を提示する。
論文 参考訳(メタデータ) (2020-11-15T23:30:36Z) - Exploiting Scene-specific Features for Object Goal Navigation [9.806910643086043]
ナビゲーションモデルのトレーニングを高速化するデータセットを新たに導入する。
提案したデータセットは,オンライン構築マップを合理的な時間で活用しないモデルのトレーニングを可能にする。
本研究では,SMTSCモデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T10:16:01Z) - Learning Long-term Visual Dynamics with Region Proposal Interaction
Networks [75.06423516419862]
オブジェクト間およびオブジェクト環境間の相互作用を長距離にわたってキャプチャするオブジェクト表現を構築します。
単純だが効果的なオブジェクト表現のおかげで、我々の手法は先行手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-08-05T17:48:00Z) - Improving Target-driven Visual Navigation with Attention on 3D Spatial
Relationships [52.72020203771489]
3次元屋内シーンにおける深部強化学習(DRL)を用いた目標駆動型視覚ナビゲーションについて検討した。
提案手法は視覚特徴と3次元空間表現を組み合わせてナビゲーションポリシーを学習する。
AI2-THORで実施した我々の実験は、SRとSPLの指標において、モデルがベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T08:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。