論文の概要: NavRep: Unsupervised Representations for Reinforcement Learning of Robot
Navigation in Dynamic Human Environments
- arxiv url: http://arxiv.org/abs/2012.04406v1
- Date: Tue, 8 Dec 2020 12:51:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 20:51:29.053583
- Title: NavRep: Unsupervised Representations for Reinforcement Learning of Robot
Navigation in Dynamic Human Environments
- Title(参考訳): NavRep:動的人間環境におけるロボットナビゲーションの強化学習のための教師なし表現
- Authors: Daniel Dugas, Juan Nieto, Roland Siegwart, Jen Jen Chung
- Abstract要約: 2つのエンドツーエンドと18の教師なし学習ベースのアーキテクチャをトレーニングし、それらと既存のアプローチを未認識のテストケースで比較します。
その結果,教師なし学習手法はエンドツーエンドの手法と競合することがわかった。
このリリースには、他の論文で記述されたトレーニング条件をエミュレートするように設計されたopenai-gym互換環境も含まれている。
- 参考スコア(独自算出の注目度): 28.530962677406627
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robot navigation is a task where reinforcement learning approaches are still
unable to compete with traditional path planning. State-of-the-art methods
differ in small ways, and do not all provide reproducible, openly available
implementations. This makes comparing methods a challenge. Recent research has
shown that unsupervised learning methods can scale impressively, and be
leveraged to solve difficult problems. In this work, we design ways in which
unsupervised learning can be used to assist reinforcement learning for robot
navigation. We train two end-to-end, and 18 unsupervised-learning-based
architectures, and compare them, along with existing approaches, in unseen test
cases. We demonstrate our approach working on a real life robot. Our results
show that unsupervised learning methods are competitive with end-to-end
methods. We also highlight the importance of various components such as input
representation, predictive unsupervised learning, and latent features. We make
all our models publicly available, as well as training and testing
environments, and tools. This release also includes OpenAI-gym-compatible
environments designed to emulate the training conditions described by other
papers, with as much fidelity as possible. Our hope is that this helps in
bringing together the field of RL for robot navigation, and allows meaningful
comparisons across state-of-the-art methods.
- Abstract(参考訳): ロボットナビゲーションは、強化学習アプローチが従来の経路計画と競合することができないタスクである。
State-of-the-artメソッドは小さな方法で異なり、すべて再現可能な公開実装を提供するわけではない。
これにより比較手法が困難になる。
近年の研究では、教師なしの学習方法が驚くほどスケールし、難しい問題を解決するために活用できることが示されている。
本研究では,ロボットナビゲーションの強化学習を支援するために,教師なし学習を用いた手法を設計する。
2つのエンドツーエンドと18の教師なし学習ベースのアーキテクチャをトレーニングし、それらと既存のアプローチを未認識のテストケースで比較します。
実生活型ロボットに対する我々のアプローチを実演する。
その結果,教師なし学習手法はエンドツーエンドの手法と競合することがわかった。
また,入力表現や予測的教師なし学習,潜在機能など,さまざまなコンポーネントの重要性も強調する。
すべてのモデルを公開するとともに、トレーニングやテスト環境、ツールも公開しています。
このリリースには、他の論文が記述したトレーニング条件を可能な限り忠実にエミュレートするように設計されたopenai-gym互換環境も含まれている。
われわれの期待は、ロボットナビゲーションのためのRLの分野を統合し、最先端の手法間で有意義な比較を可能にすることだ。
関連論文リスト
- Online Context Learning for Socially-compliant Navigation [49.609656402450746]
本文では,ロボットが新たな社会環境に適応できるようにするための,オンラインコンテキスト学習手法を紹介する。
コミュニティワイドシミュレータを用いた実験により,本手法は最先端のシミュレータよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-06-17T12:59:13Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Unsupervised Online Learning for Robotic Interestingness with Visual
Memory [9.189959184116962]
そこで本研究では,オンライン環境に自動的に適応して,興味深いシーンを素早く報告する手法を開発した。
地下トンネル環境における最先端の非監視手法よりも平均20%高い精度を実現する。
論文 参考訳(メタデータ) (2021-11-18T16:51:39Z) - Human-Aware Robot Navigation via Reinforcement Learning with Hindsight
Experience Replay and Curriculum Learning [28.045441768064215]
強化学習アプローチは、シーケンシャルな意思決定問題を解決する優れた能力を示している。
本研究では,実演データを使わずにRLエージェントを訓練する作業を検討する。
密集層における最適なナビゲーションポリシーを効率的に学習するために,後視体験リプレイ(HER)とカリキュラム学習(CL)技術をRLに組み込むことを提案する。
論文 参考訳(メタデータ) (2021-10-09T13:18:11Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - Robot in a China Shop: Using Reinforcement Learning for
Location-Specific Navigation Behaviour [24.447207633447363]
本稿では,マルチタスク学習問題として扱われるナビゲーションに対する新しいアプローチを提案する。
これによりロボットは、異なる環境における視覚的なナビゲーションタスクにおいて、異なる振る舞いを学ぶことができる。
論文 参考訳(メタデータ) (2021-06-02T19:31:27Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。