論文の概要: On Embodied Visual Navigation in Real Environments Through Habitat
- arxiv url: http://arxiv.org/abs/2010.13439v1
- Date: Mon, 26 Oct 2020 09:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:38:28.406466
- Title: On Embodied Visual Navigation in Real Environments Through Habitat
- Title(参考訳): 生息地を通した実環境における具体的視覚ナビゲーションについて
- Authors: Marco Rosano, Antonino Furnari, Luigi Gulino, Giovanni Maria Farinella
- Abstract要約: ディープラーニングに基づくビジュアルナビゲーションモデルは、大量の視覚的観察に基づいてトレーニングされた場合、効果的なポリシーを学ぶことができる。
この制限に対処するため、仮想環境における視覚ナビゲーションポリシーを効率的に訓練するためのシミュレーションプラットフォームがいくつか提案されている。
本研究では,実世界の航法ピソードを走らせることなく,実世界の観測における航法方針の訓練と評価を効果的に行うことができることを示す。
- 参考スコア(独自算出の注目度): 20.630139085937586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual navigation models based on deep learning can learn effective policies
when trained on large amounts of visual observations through reinforcement
learning. Unfortunately, collecting the required experience in the real world
requires the deployment of a robotic platform, which is expensive and
time-consuming. To deal with this limitation, several simulation platforms have
been proposed in order to train visual navigation policies on virtual
environments efficiently. Despite the advantages they offer, simulators present
a limited realism in terms of appearance and physical dynamics, leading to
navigation policies that do not generalize in the real world.
In this paper, we propose a tool based on the Habitat simulator which
exploits real world images of the environment, together with sensor and
actuator noise models, to produce more realistic navigation episodes. We
perform a range of experiments to assess the ability of such policies to
generalize using virtual and real-world images, as well as observations
transformed with unsupervised domain adaptation approaches. We also assess the
impact of sensor and actuation noise on the navigation performance and
investigate whether it allows to learn more robust navigation policies. We show
that our tool can effectively help to train and evaluate navigation policies on
real-world observations without running navigation pisodes in the real world.
- Abstract(参考訳): 深層学習に基づく視覚ナビゲーションモデルは、強化学習を通じて大量の視覚的観察を訓練することで、効果的なポリシーを学習することができる。
残念ながら、現実の世界で必要な経験を集めるには、高価で時間がかかるロボットプラットフォームを配置する必要がある。
この制限に対処するため、仮想環境における視覚ナビゲーションポリシーを効率的に訓練するためのシミュレーションプラットフォームがいくつか提案されている。
それらの利点にもかかわらず、シミュレーターは外観と物理力学の点で限られた現実性を示し、現実の世界では一般化しないナビゲーションポリシーをもたらす。
本稿では,センサやアクチュエータの騒音モデルとともに環境の現実的なイメージを利用して,より現実的なナビゲーションエピソードを生成するHabitatシミュレータに基づくツールを提案する。
仮想および実世界のイメージを一般化するためのポリシーの能力を評価するために、様々な実験を行い、また教師なしのドメイン適応アプローチで変換された観察も行います。
また,センサとアクティベーションノイズがナビゲーション性能に与える影響を評価し,より堅牢なナビゲーションポリシーを学習できるかどうかを検討する。
本ツールは,実世界のナビゲーションピソードを動作させることなく,実世界観測におけるナビゲーションポリシーの訓練と評価を効果的に行うことができることを示す。
関連論文リスト
- Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Virtual Guidance as a Mid-level Representation for Navigation [8.712750753534532]
仮想誘導」は視覚的でない命令信号を視覚的に表現するように設計されている。
シミュレーションと実世界の両方の環境で実験を行い,提案手法の評価を行った。
論文 参考訳(メタデータ) (2023-03-05T17:55:15Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Image-based Navigation in Real-World Environments via Multiple Mid-level
Representations: Fusion Models, Benchmark and Efficient Evaluation [13.207579081178716]
近年の学習に基づくナビゲーション手法では,エージェントのシーン理解とナビゲーション能力が同時に実現されている。
残念ながら、シミュレーターがナビゲーションポリシーを訓練する効率的なツールであるとしても、現実の世界に移動すると、結果のモデルは失敗することが多い。
可能な解決策の1つは、シーンの重要なドメイン不変性を含む中間レベルの視覚表現を備えたナビゲーションモデルを提供することである。
論文 参考訳(メタデータ) (2022-02-02T15:00:44Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Unsupervised Domain Adaptation for Visual Navigation [115.85181329193092]
視覚ナビゲーションのための教師なし領域適応手法を提案する。
本手法では,対象領域の画像をソース領域に変換し,ナビゲーションポリシで学習した表現と一致するようにする。
論文 参考訳(メタデータ) (2020-10-27T18:22:43Z) - Embodied Visual Navigation with Automatic Curriculum Learning in Real
Environments [20.017277077448924]
NavACLは、ナビゲーションタスクに適した自動カリキュラム学習の方法である。
NavACLを用いて訓練した深層強化学習剤は、均一サンプリングで訓練した最先端エージェントよりも有意に優れていた。
我々のエージェントは、未知の乱雑な屋内環境から、RGB画像のみを使用して意味的に特定されたターゲットへ移動することができる。
論文 参考訳(メタデータ) (2020-09-11T13:28:26Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。