論文の概要: Human-Aware Robot Navigation via Reinforcement Learning with Hindsight
Experience Replay and Curriculum Learning
- arxiv url: http://arxiv.org/abs/2110.04564v1
- Date: Sat, 9 Oct 2021 13:18:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 16:46:00.395349
- Title: Human-Aware Robot Navigation via Reinforcement Learning with Hindsight
Experience Replay and Curriculum Learning
- Title(参考訳): 直視経験とカリキュラム学習による強化学習による人間対応ロボットナビゲーション
- Authors: Keyu Li, Ye Lu, Max Q.-H. Meng
- Abstract要約: 強化学習アプローチは、シーケンシャルな意思決定問題を解決する優れた能力を示している。
本研究では,実演データを使わずにRLエージェントを訓練する作業を検討する。
密集層における最適なナビゲーションポリシーを効率的に学習するために,後視体験リプレイ(HER)とカリキュラム学習(CL)技術をRLに組み込むことを提案する。
- 参考スコア(独自算出の注目度): 28.045441768064215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the growing demand for more intelligent service robots is
pushing the development of mobile robot navigation algorithms to allow safe and
efficient operation in a dense crowd. Reinforcement learning (RL) approaches
have shown superior ability in solving sequential decision making problems, and
recent work has explored its potential to learn navigation polices in a
socially compliant manner. However, the expert demonstration data used in
existing methods is usually expensive and difficult to obtain. In this work, we
consider the task of training an RL agent without employing the demonstration
data, to achieve efficient and collision-free navigation in a crowded
environment. To address the sparse reward navigation problem, we propose to
incorporate the hindsight experience replay (HER) and curriculum learning (CL)
techniques with RL to efficiently learn the optimal navigation policy in the
dense crowd. The effectiveness of our method is validated in a simulated
crowd-robot coexisting environment. The results demonstrate that our method can
effectively learn human-aware navigation without requiring additional
demonstration data.
- Abstract(参考訳): 近年、よりインテリジェントなサービスロボットの需要が高まり、密集した群衆の安全かつ効率的な操作を可能にする移動ロボットナビゲーションアルゴリズムの開発が進められている。
強化学習(RL)アプローチは、シーケンシャルな意思決定問題を解決する優れた能力を示しており、最近の研究は、ナビゲーション警察を社会的に適合した方法で学習する可能性を探っている。
しかし、既存の手法で使われる専門家の実証データは、通常高価で入手が困難である。
本研究では,RLエージェントを実演データを用いずに訓練する作業について考察し,混雑環境下での効率的な衝突回避ナビゲーションを実現する。
少額報酬ナビゲーション問題に対処するために,her(hindsight experience replay)とcl( curriculum learning)技術をrlに組み込んで,密集した群衆の最適ナビゲーション方針を効率的に学習することを提案する。
本手法の有効性は,群集ロボット共存環境において検証される。
その結果,本手法は実演データを必要とせず,効果的にナビゲーションを学習できることが示唆された。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - MIRACLE: Inverse Reinforcement and Curriculum Learning Model for
Human-inspired Mobile Robot Navigation [13.824617183645291]
緊急のシナリオでは、移動ロボットは人間のようにナビゲートし、最初の応答者と干渉することなく、潜在的な犠牲者を素早く見つけ出す刺激を解釈しなければならない。
我々は、ゲーミフィケーション学習を用いて刺激駆動型人間のナビゲーションデータを収集するソリューション、MIRACLEを提案する。
このデータは、Deep Inverseの最大エントロピー強化学習モデルをトレーニングするために使用され、実証者の能力への依存を減らす。
論文 参考訳(メタデータ) (2023-12-06T18:13:21Z) - Tactile Active Inference Reinforcement Learning for Efficient Robotic
Manipulation Skill Acquisition [10.072992621244042]
触覚能動推論強化学習(Tactile Active Inference Reinforcement Learning, Tactile-AIRL)と呼ばれるロボット操作におけるスキル学習手法を提案する。
強化学習(RL)の性能を高めるために,モデルに基づく手法と本質的な好奇心をRLプロセスに統合した能動推論を導入する。
本研究では,タスクをプッシュする非包括的オブジェクトにおいて,学習効率が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-11-19T10:19:22Z) - Deep Reinforcement Learning-Based Mapless Crowd Navigation with
Perceived Risk of the Moving Crowd for Mobile Robots [0.0]
現在最先端のクラウドナビゲーションアプローチは、主に深層強化学習(DRL)に基づくものである。
本研究では,観測空間に衝突確率(CP)を組み込んで,移動する群衆の危険度をロボットに知覚する手法を提案する。
論文 参考訳(メタデータ) (2023-04-07T11:29:59Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Efficient Robotic Manipulation Through Offline-to-Online Reinforcement
Learning and Goal-Aware State Information [5.604859261995801]
本稿では、遷移性能低下を解消するオフラインからオフラインまでの統一的なRLフレームワークを提案する。
目標認識状態情報をRLエージェントに導入することにより,タスクの複雑性を大幅に低減し,政策学習を加速することができる。
本フレームワークは,複数のロボット操作タスクにおける最先端手法と比較して,優れたトレーニング効率と性能を実現する。
論文 参考訳(メタデータ) (2021-10-21T05:34:25Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - NavRep: Unsupervised Representations for Reinforcement Learning of Robot
Navigation in Dynamic Human Environments [28.530962677406627]
2つのエンドツーエンドと18の教師なし学習ベースのアーキテクチャをトレーニングし、それらと既存のアプローチを未認識のテストケースで比較します。
その結果,教師なし学習手法はエンドツーエンドの手法と競合することがわかった。
このリリースには、他の論文で記述されたトレーニング条件をエミュレートするように設計されたopenai-gym互換環境も含まれている。
論文 参考訳(メタデータ) (2020-12-08T12:51:14Z) - AWAC: Accelerating Online Reinforcement Learning with Offline Datasets [84.94748183816547]
提案手法は,従来の実演データとオンライン体験を組み合わせることで,スキルの素早い学習を可能にする。
以上の結果から,事前データを組み込むことで,ロボット工学を実践的な時間スケールまで学習するのに要する時間を短縮できることが示唆された。
論文 参考訳(メタデータ) (2020-06-16T17:54:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。