論文の概要: Planning the path with Reinforcement Learning: Optimal Robot Motion Planning in RoboCup Small Size League Environments
- arxiv url: http://arxiv.org/abs/2404.15410v1
- Date: Tue, 23 Apr 2024 18:01:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-25 15:23:04.546030
- Title: Planning the path with Reinforcement Learning: Optimal Robot Motion Planning in RoboCup Small Size League Environments
- Title(参考訳): 強化学習による経路計画:ロボカップ小型リーグ環境における最適なロボット運動計画
- Authors: Mateus G. Machado, João G. Melo, Cleber Zanchettin, Pedro H. M. Braga, Pedro V. Cunha, Edna N. S. Barros, Hansenclever F. Bassani,
- Abstract要約: 本研究は,RoboCup Small Size League(SSL)におけるロボット運動計画課題に取り組むための強化学習の可能性について検討する。
制御手法を用いて,障害物のない単一障害物経路計画環境におけるRLの有効性を評価する。
本手法は, 障害物のない環境において, ベースラインアルゴリズムと比較して60%の時間ゲインを達成した。
- 参考スコア(独自算出の注目度): 1.6961863980885539
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work investigates the potential of Reinforcement Learning (RL) to tackle robot motion planning challenges in the dynamic RoboCup Small Size League (SSL). Using a heuristic control approach, we evaluate RL's effectiveness in obstacle-free and single-obstacle path-planning environments. Ablation studies reveal significant performance improvements. Our method achieved a 60% time gain in obstacle-free environments compared to baseline algorithms. Additionally, our findings demonstrated dynamic obstacle avoidance capabilities, adeptly navigating around moving blocks. These findings highlight the potential of RL to enhance robot motion planning in the challenging and unpredictable SSL environment.
- Abstract(参考訳): 本研究では,RoboCup Small Size League (SSL)におけるロボット運動計画課題に取り組むための強化学習(RL)の可能性を検討する。
ヒューリスティック制御手法を用いて,障害物のない単一障害物経路計画環境におけるRLの有効性を評価する。
アブレーション研究は大幅な性能向上を示した。
本手法は, 障害物のない環境において, ベースラインアルゴリズムと比較して60%の時間ゲインを達成した。
さらに,移動ブロックの周囲を急速走行する動的障害物回避機能を示した。
これらの知見は、難易度と予測不可能なSSL環境において、ロボットの動作計画を強化するRLの可能性を強調している。
関連論文リスト
- Monte Carlo Tree Search with Velocity Obstacles for safe and efficient motion planning in dynamic environments [49.30744329170107]
本稿では,動的障害物に関する情報を最小限に抑えた最適オンライン動作計画手法を提案する。
提案手法は,モデルシミュレーションによるオンライン最適計画のためのモンテカルロ木探索 (MCTS) と障害物回避のためのVelocity Obstacles (VO) を組み合わせた。
我々は,非線形モデル予測制御(NMPC)を含む最先端のプランナーに対して,衝突速度,計算,タスク性能の向上の観点から,我々の方法論の優位性を示す。
論文 参考訳(メタデータ) (2025-01-16T16:45:08Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Mission-driven Exploration for Accelerated Deep Reinforcement Learning
with Temporal Logic Task Specifications [11.812602599752294]
未知の構造を持つ環境で動作している未知のダイナミクスを持つロボットについて考察する。
我々の目標は、オートマトン符号化されたタスクを満足する確率を最大化する制御ポリシーを合成することである。
そこで本研究では,制御ポリシーを類似手法と比較して顕著に高速に学習できるDRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-28T18:59:58Z) - Grow Your Limits: Continuous Improvement with Real-World RL for Robotic
Locomotion [66.69666636971922]
本稿では,ロボットの学習過程における探索を調節するポリシー正規化フレームワークであるAPRLを提案する。
APRLは四足歩行ロボットを、数分で完全に現実世界を歩けるように効率よく学習する。
論文 参考訳(メタデータ) (2023-10-26T17:51:46Z) - Reaching the Limit in Autonomous Racing: Optimal Control versus
Reinforcement Learning [66.10854214036605]
ロボット工学における中心的な問題は、アジャイルなモバイルロボットの制御システムをどうやって設計するかである。
本稿では、強化学習(RL)で訓練されたニューラルネットワークコントローラが最適制御(OC)法より優れていることを示す。
その結果、アジャイルドローンを最大性能に押し上げることができ、最大加速速度は重力加速度の12倍以上、ピーク速度は時速108kmに達しました。
論文 参考訳(メタデータ) (2023-10-17T02:40:27Z) - Domain Randomization for Robust, Affordable and Effective Closed-loop
Control of Soft Robots [10.977130974626668]
ソフトロボットは、コンタクトや適応性に対する本質的な安全性によって人気を集めている。
本稿では、ソフトロボットのRLポリシーを強化することにより、ドメインランダム化(DR)がこの問題を解決する方法を示す。
本稿では,変形可能なオブジェクトに対する動的パラメータの自動推論のための,従来の適応的領域ランダム化手法に対する新しいアルゴリズム拡張を提案する。
論文 参考訳(メタデータ) (2023-03-07T18:50:00Z) - Reinforcement Learning with Prior Policy Guidance for Motion Planning of
Dual-Arm Free-Floating Space Robot [11.272278713797537]
提案手法は,計画精度を効率的に向上するRLに基づく手法を実現するための新しいアルゴリズムであるEfficientを提案する。
私たちのコアコントリビューションは、事前の知識ガイダンスと混合ポリシーを構築し、より合理的な報酬関数を構築するために無限ノルムを導入することです。
論文 参考訳(メタデータ) (2022-09-03T14:20:17Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - CLAMGen: Closed-Loop Arm Motion Generation via Multi-view Vision-Based
RL [4.014524824655106]
腕到達問題における閉ループ軌道生成のための視覚に基づく強化学習(RL)手法を提案する。
アームの軌道生成は、ロボットの体を動かすための衝突のない経路を見つけることを含む基本的なロボティクス問題です。
論文 参考訳(メタデータ) (2021-03-24T15:33:03Z) - Motion Planner Augmented Reinforcement Learning for Robot Manipulation
in Obstructed Environments [22.20810568845499]
本稿では,RLエージェントの動作空間を移動プランナの長期計画能力で拡張する動きプランナ拡張RL(MoPA-RL)を提案する。
動作の大きさに基づいて,動作を直接実行し,動作プランナを起動するアプローチを円滑に移行する。
実験により、MoPA-RLは学習効率を高め、より高速な探索をもたらし、より安全なポリシーをもたらすことが示されている。
論文 参考訳(メタデータ) (2020-10-22T17:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。