論文の概要: No RL, No Simulation: Learning to Navigate without Navigating
- arxiv url: http://arxiv.org/abs/2110.09470v1
- Date: Mon, 18 Oct 2021 17:04:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 12:04:48.496918
- Title: No RL, No Simulation: Learning to Navigate without Navigating
- Title(参考訳): RLなし、シミュレーションなし:ナビゲートなしでナビゲートを学ぶ
- Authors: Meera Hahn, Devendra Chaplot, Shubham Tulsiani, Mustafa Mukadam, James
M. Rehg, Abhinav Gupta
- Abstract要約: そこで本研究では,ローミングの受動的ビデオのみからナビゲートする自己教師型アプローチを提案する。
我々のアプローチであるNo RL,No Simulator (NRNS)はシンプルでスケーラブルだが、非常に効果的である。
- 参考スコア(独自算出の注目度): 60.878473808729126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most prior methods for learning navigation policies require access to
simulation environments, as they need online policy interaction and rely on
ground-truth maps for rewards. However, building simulators is expensive
(requires manual effort for each and every scene) and creates challenges in
transferring learned policies to robotic platforms in the real-world, due to
the sim-to-real domain gap. In this paper, we pose a simple question: Do we
really need active interaction, ground-truth maps or even
reinforcement-learning (RL) in order to solve the image-goal navigation task?
We propose a self-supervised approach to learn to navigate from only passive
videos of roaming. Our approach, No RL, No Simulator (NRNS), is simple and
scalable, yet highly effective. NRNS outperforms RL-based formulations by a
significant margin. We present NRNS as a strong baseline for any future
image-based navigation tasks that use RL or Simulation.
- Abstract(参考訳): ナビゲーションポリシーを学習するためには、オンラインポリシーのインタラクションが必要であり、報酬のために地道な地図に依存するため、シミュレーション環境へのアクセスが必要である。
しかし,シミュレータの構築は費用がかかる(各シーンごとに手作業が必要)ため,実世界のロボットプラットフォームに学習方針を移す際の課題が生じる。
本稿では,画像ゴールナビゲーションの課題を解決するために,アクティブなインタラクション,地動地図,あるいは強化学習(RL)も本当に必要か,という簡単な疑問を提起する。
我々は,ローミングの受動的映像のみからナビゲートを学ぶための自己教師付きアプローチを提案する。
我々のアプローチであるNo RL,No Simulator (NRNS)はシンプルでスケーラブルだが、非常に効果的である。
NRNSはRLベースの定式化を著しく上回る。
NRNSをRLやシミュレーションを用いた将来の画像ベースのナビゲーションタスクの強力なベースラインとして提示する。
関連論文リスト
- ReProHRL: Towards Multi-Goal Navigation in the Real World using
Hierarchical Agents [1.3194749469702445]
本稿では、強化学習によって誘導される階層的マルチゴールナビゲーションでタスクを分割する生産階層RL(ReProHRL)について述べる。
また、物体検出装置を前処理のステップとして使用して、マルチゴールナビゲーションを学習し、それを現実世界に転送する。
実世界の実装と概念実証のために,提案手法をフロントカメラを用いたナノドローンCrzyflieに展開する。
論文 参考訳(メタデータ) (2023-08-17T02:23:59Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - Parallel Reinforcement Learning Simulation for Visual Quadrotor
Navigation [4.597465975849579]
強化学習(Reinforcement Learning、RL)は、ロボットに物理的な世界の中をナビゲートするように教えるエージェントベースのアプローチである。
本稿では,AirSim上に構築された並列学習を効率的に行うシミュレーションフレームワークを提案する。
このフレームワーク上に構築されたApe-Xは、AirSim環境の分散トレーニングを組み込むように修正されている。
論文 参考訳(メタデータ) (2022-09-22T15:27:42Z) - When to Trust Your Simulator: Dynamics-Aware Hybrid Offline-and-Online
Reinforcement Learning [7.786094194874359]
本稿では,この問題に対する肯定的な回答を提供するために,Dynamics-Aware Hybrid Offline-and-Online Reinforcement Learning (H2O)フレームワークを提案する。
H2Oは動的に認識されたポリシー評価スキームを導入し、大きなダイナミックスギャップを持つシミュレーション状態-作用対上でQ関数学習を適応的にペナルティ化する。
我々は、他のドメイン間のオンラインおよびオフラインRLアルゴリズムに対してH2Oの優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-27T17:18:11Z) - Unsupervised Domain Adaptation for Visual Navigation [115.85181329193092]
視覚ナビゲーションのための教師なし領域適応手法を提案する。
本手法では,対象領域の画像をソース領域に変換し,ナビゲーションポリシで学習した表現と一致するようにする。
論文 参考訳(メタデータ) (2020-10-27T18:22:43Z) - Robust Reinforcement Learning-based Autonomous Driving Agent for
Simulation and Real World [0.0]
本稿では,Deep Q-Networks (DQN) を用いた自律型ロボット制御を実現するDRLベースのアルゴリズムを提案する。
本手法では,エージェントはシミュレーション環境で訓練され,シミュレーション環境と実環境環境の両方をナビゲートすることができる。
トレーニングされたエージェントは限られたハードウェアリソース上で動作することができ、そのパフォーマンスは最先端のアプローチに匹敵する。
論文 参考訳(メタデータ) (2020-09-23T15:23:54Z) - Embodied Visual Navigation with Automatic Curriculum Learning in Real
Environments [20.017277077448924]
NavACLは、ナビゲーションタスクに適した自動カリキュラム学習の方法である。
NavACLを用いて訓練した深層強化学習剤は、均一サンプリングで訓練した最先端エージェントよりも有意に優れていた。
我々のエージェントは、未知の乱雑な屋内環境から、RGB画像のみを使用して意味的に特定されたターゲットへ移動することができる。
論文 参考訳(メタデータ) (2020-09-11T13:28:26Z) - AWAC: Accelerating Online Reinforcement Learning with Offline Datasets [84.94748183816547]
提案手法は,従来の実演データとオンライン体験を組み合わせることで,スキルの素早い学習を可能にする。
以上の結果から,事前データを組み込むことで,ロボット工学を実践的な時間スケールまで学習するのに要する時間を短縮できることが示唆された。
論文 参考訳(メタデータ) (2020-06-16T17:54:41Z) - Meta-Reinforcement Learning for Robotic Industrial Insertion Tasks [70.56451186797436]
本研究では,メタ強化学習を用いてシミュレーションの課題の大部分を解決する方法について検討する。
エージェントを訓練して現実の挿入タスクを成功させる手法を実証する。
論文 参考訳(メタデータ) (2020-04-29T18:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。