論文の概要: Deep Reinforcement Learning-Based Mapless Crowd Navigation with
Perceived Risk of the Moving Crowd for Mobile Robots
- arxiv url: http://arxiv.org/abs/2304.03593v2
- Date: Sat, 23 Sep 2023 16:56:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 03:21:27.355330
- Title: Deep Reinforcement Learning-Based Mapless Crowd Navigation with
Perceived Risk of the Moving Crowd for Mobile Robots
- Title(参考訳): 移動ロボットの移動群集のリスクを考慮した深層強化学習に基づくマップレス群集ナビゲーション
- Authors: Hafiq Anas, Ong Wee Hong, Owais Ahmed Malik
- Abstract要約: 現在最先端のクラウドナビゲーションアプローチは、主に深層強化学習(DRL)に基づくものである。
本研究では,観測空間に衝突確率(CP)を組み込んで,移動する群衆の危険度をロボットに知覚する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current state-of-the-art crowd navigation approaches are mainly deep
reinforcement learning (DRL)-based. However, DRL-based methods suffer from the
issues of generalization and scalability. To overcome these challenges, we
propose a method that includes a Collision Probability (CP) in the observation
space to give the robot a sense of the level of danger of the moving crowd to
help the robot navigate safely through crowds with unseen behaviors. We studied
the effects of changing the number of moving obstacles to pay attention during
navigation. During training, we generated local waypoints to increase the
reward density and improve the learning efficiency of the system. Our approach
was developed using deep reinforcement learning (DRL) and trained using the
Gazebo simulator in a non-cooperative crowd environment with obstacles moving
at randomized speeds and directions. We then evaluated our model on four
different crowd-behavior scenarios. The results show that our method achieved a
100% success rate in all test settings. We compared our approach with a current
state-of-the-art DRL-based approach, and our approach has performed
significantly better, especially in terms of social safety. Importantly, our
method can navigate in different crowd behaviors and requires no fine-tuning
after being trained once. We further demonstrated the crowd navigation
capability of our model in real-world tests.
- Abstract(参考訳): 現在最先端のクラウドナビゲーションアプローチは、主に深層強化学習(DRL)に基づくものである。
しかし、DRLベースの手法は一般化と拡張性の問題に悩まされている。
そこで,これらの課題を克服するために,観察空間における衝突確率(cp)を含む手法を提案する。
ナビゲーション中に注意を払うために移動障害物の数を変更する効果について検討した。
学習中,報奨密度を高め,システムの学習効率を向上させるために局所的ウェイポイントを作成した。
提案手法は深部強化学習(DRL)を用いて開発され,ランダムな速度と方向で障害物が移動する非協調群集環境下でガゼボシミュレータを用いて訓練された。
そして,4つの異なる行動シナリオでモデルを評価した。
その結果,本手法は全てのテスト環境で100%の成功率を達成した。
我々は、現在のDRLベースのアプローチと比較し、特に社会安全の観点から、我々のアプローチは大幅に改善された。
重要なこととして,本手法は異なる集団行動でナビゲートでき,一度の訓練で微調整は不要である。
さらに,実世界の実験において,モデルの群集ナビゲーション能力を実証した。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal
Locomotion Control [112.66677641636299]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Avoidance Navigation Based on Offline Pre-Training Reinforcement
Learning [0.0]
本稿では,移動ロボットの地図を使わずに回避ナビゲーションを行うための,事前学習型深部強化学習(DRL)を提案する。
早期の非効率なランダム探索を高速化するために,効率的なオフライン学習戦略を提案する。
DRLモデルは, 異なる環境下で普遍的な汎用能力を有することを示した。
論文 参考訳(メタデータ) (2023-08-03T06:19:46Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Relative velocity-based reward functions for crowd navigation of robots [7.671375709255977]
モバイルロボットの開発において,社会的に許容される基準でクラウド環境をナビゲートする方法は,依然として重要な課題である。
近年の研究では,歩行者の移動速度が向上するにつれて,群集ナビゲーションにおける深層強化学習の有効性が示されているが,学習効果は徐々に低下している。
深い強化学習の有効性を向上させるため,報酬関数に相対速度のペナルティ項を導入することで報酬関数を再設計した。
論文 参考訳(メタデータ) (2021-12-28T03:49:01Z) - Human-Aware Robot Navigation via Reinforcement Learning with Hindsight
Experience Replay and Curriculum Learning [28.045441768064215]
強化学習アプローチは、シーケンシャルな意思決定問題を解決する優れた能力を示している。
本研究では,実演データを使わずにRLエージェントを訓練する作業を検討する。
密集層における最適なナビゲーションポリシーを効率的に学習するために,後視体験リプレイ(HER)とカリキュラム学習(CL)技術をRLに組み込むことを提案する。
論文 参考訳(メタデータ) (2021-10-09T13:18:11Z) - CLAMGen: Closed-Loop Arm Motion Generation via Multi-view Vision-Based
RL [4.014524824655106]
腕到達問題における閉ループ軌道生成のための視覚に基づく強化学習(RL)手法を提案する。
アームの軌道生成は、ロボットの体を動かすための衝突のない経路を見つけることを含む基本的なロボティクス問題です。
論文 参考訳(メタデータ) (2021-03-24T15:33:03Z) - An A* Curriculum Approach to Reinforcement Learning for RGBD Indoor
Robot Navigation [6.660458629649825]
最近リリースされたhabitatのようなフォトリアリスティックシミュレータは、知覚から直接制御アクションを出力するネットワークのトレーニングを可能にする。
本稿では,知覚の訓練とニューラルネットの制御を分離し,経路の複雑さを徐々に増すことにより,この問題を克服しようとする。
論文 参考訳(メタデータ) (2021-01-05T20:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。