論文の概要: PathRL: An End-to-End Path Generation Method for Collision Avoidance via
Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2310.13295v1
- Date: Fri, 20 Oct 2023 05:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 00:04:52.775676
- Title: PathRL: An End-to-End Path Generation Method for Collision Avoidance via
Deep Reinforcement Learning
- Title(参考訳): PathRL: 深層強化学習による衝突回避のための終端経路生成手法
- Authors: Wenhao Yu, Jie Peng, Quecheng Qiu, Hanyu Wang, Lu Zhang and Jianmin Ji
- Abstract要約: 本稿では,ロボットのナビゲーション経路を生成するためのポリシーをトレーニングする新しいDRL手法であるPathRLを提案する。
実験では,他のDRLナビゲーション法と比較して,PathRLは良好な成功率を示し,角度可変性を低下させる。
- 参考スコア(独自算出の注目度): 16.397594417992483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robot navigation using deep reinforcement learning (DRL) has shown great
potential in improving the performance of mobile robots. Nevertheless, most
existing DRL-based navigation methods primarily focus on training a policy that
directly commands the robot with low-level controls, like linear and angular
velocities, which leads to unstable speeds and unsmooth trajectories of the
robot during the long-term execution. An alternative method is to train a DRL
policy that outputs the navigation path directly. However, two roadblocks arise
for training a DRL policy that outputs paths: (1) The action space for
potential paths often involves higher dimensions comparing to low-level
commands, which increases the difficulties of training; (2) It takes multiple
time steps to track a path instead of a single time step, which requires the
path to predicate the interactions of the robot w.r.t. the dynamic environment
in multiple time steps. This, in turn, amplifies the challenges associated with
training. In response to these challenges, we propose PathRL, a novel DRL
method that trains the policy to generate the navigation path for the robot.
Specifically, we employ specific action space discretization techniques and
tailored state space representation methods to address the associated
challenges. In our experiments, PathRL achieves better success rates and
reduces angular rotation variability compared to other DRL navigation methods,
facilitating stable and smooth robot movement. We demonstrate the competitive
edge of PathRL in both real-world scenarios and multiple challenging simulation
environments.
- Abstract(参考訳): 深層強化学習(drl)を用いたロボットナビゲーションは,モバイルロボットの性能向上に大きな可能性がある。
それにもかかわらず、既存のDRLベースのナビゲーション手法のほとんどは、リニアや角速度などの低レベルの制御でロボットを直接指揮するポリシーのトレーニングに重点を置いている。
別の方法は、ナビゲーションパスを直接出力するDRLポリシーのトレーニングである。
しかし、経路を出力するdrlポリシーを訓練するために2つの障害が生じる: 1) 潜在経路の動作空間は、低いレベルのコマンドと比較して高い次元を伴い、トレーニングの困難さを増大させる; (2) 単一の時間ステップではなく経路を追跡するのに複数の時間を要する; ロボットw.r.t.の動的環境を複数の時間ステップで予測する経路を必要とする。
これにより、トレーニングに関連する課題が増幅される。
これらの課題に対応するために,ロボットのナビゲーション経路を生成するためのポリシーをトレーニングする新しいDRL手法であるPathRLを提案する。
具体的には,特定の行動空間の離散化手法と,関連する課題に対処するための状態空間表現手法を用いる。
実験では, 他のDRLナビゲーション法と比較して, PathRLは良好な成功率を実現し, 角回転変動を低減し, 安定かつスムーズなロボット運動を容易にする。
実世界のシナリオと複数の困難なシミュレーション環境の両方において、PathRLの競合するエッジを実証する。
関連論文リスト
- Let Hybrid A* Path Planner Obey Traffic Rules: A Deep Reinforcement Learning-Based Planning Framework [0.0]
本研究では、ハイブリッドA*経路計画のような低レベルアルゴリズムと深層強化学習(DRL)を組み合わせることで、高レベルな意思決定を行う。
ハイブリッドA*プランナーは、モデル予測コントローラ(MPC)によって実行される衝突のない軌道を生成することができる
さらに、DRLアルゴリズムは、選択した時間内にレーン変更コマンドを一貫性を保つことができる。
論文 参考訳(メタデータ) (2024-07-01T12:00:10Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Grow Your Limits: Continuous Improvement with Real-World RL for Robotic
Locomotion [66.69666636971922]
本稿では,ロボットの学習過程における探索を調節するポリシー正規化フレームワークであるAPRLを提案する。
APRLは四足歩行ロボットを、数分で完全に現実世界を歩けるように効率よく学習する。
論文 参考訳(メタデータ) (2023-10-26T17:51:46Z) - Robot Navigation with Reinforcement Learned Path Generation and
Fine-Tuned Motion Control [5.187605914580086]
未知の環境を事前に探索することなく,移動ロボットナビゲーションのための新しい強化学習ベースパス生成(RL-PG)手法を提案する。
シミュレーションと物理プラットフォームの両方にモデルをデプロイし,ロボットナビゲーションを効果的かつ安全に行うことを実証する。
論文 参考訳(メタデータ) (2022-10-19T15:10:52Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Rule-Based Reinforcement Learning for Efficient Robot Navigation with
Space Reduction [8.279526727422288]
本稿では,強化学習(RL)技術を用いた効率的なナビゲーションに焦点を当てた。
軌道を縮小するために減速ルールを採用し、冗長な探査空間を効果的に削減します。
ヘックスグリッド環境における実際のロボットナビゲーション問題に対する実験は、RuRLが航法性能を向上させることを実証している。
論文 参考訳(メタデータ) (2021-04-15T07:40:27Z) - CLAMGen: Closed-Loop Arm Motion Generation via Multi-view Vision-Based
RL [4.014524824655106]
腕到達問題における閉ループ軌道生成のための視覚に基づく強化学習(RL)手法を提案する。
アームの軌道生成は、ロボットの体を動かすための衝突のない経路を見つけることを含む基本的なロボティクス問題です。
論文 参考訳(メタデータ) (2021-03-24T15:33:03Z) - An A* Curriculum Approach to Reinforcement Learning for RGBD Indoor
Robot Navigation [6.660458629649825]
最近リリースされたhabitatのようなフォトリアリスティックシミュレータは、知覚から直接制御アクションを出力するネットワークのトレーニングを可能にする。
本稿では,知覚の訓練とニューラルネットの制御を分離し,経路の複雑さを徐々に増すことにより,この問題を克服しようとする。
論文 参考訳(メタデータ) (2021-01-05T20:35:14Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。