論文の概要: Robot Navigation with Reinforcement Learned Path Generation and
Fine-Tuned Motion Control
- arxiv url: http://arxiv.org/abs/2210.10639v1
- Date: Wed, 19 Oct 2022 15:10:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 15:13:36.578921
- Title: Robot Navigation with Reinforcement Learned Path Generation and
Fine-Tuned Motion Control
- Title(参考訳): 強化学習経路生成と微調整動作制御によるロボットナビゲーション
- Authors: Longyuan Zhang, Ziyue Hou, Ji Wang, Ziang Liu and Wei Li
- Abstract要約: 未知の環境を事前に探索することなく,移動ロボットナビゲーションのための新しい強化学習ベースパス生成(RL-PG)手法を提案する。
シミュレーションと物理プラットフォームの両方にモデルをデプロイし,ロボットナビゲーションを効果的かつ安全に行うことを実証する。
- 参考スコア(独自算出の注目度): 5.187605914580086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel reinforcement learning (RL) based path
generation (RL-PG) approach for mobile robot navigation without a prior
exploration of an unknown environment. Multiple predictive path points are
dynamically generated by a deep Markov model optimized using RL approach for
robot to track. To ensure the safety when tracking the predictive points, the
robot's motion is fine-tuned by a motion fine-tuning module. Such an approach,
using the deep Markov model with RL algorithm for planning, focuses on the
relationship between adjacent path points. We analyze the benefits that our
proposed approach are more effective and are with higher success rate than
RL-Based approach DWA-RL and a traditional navigation approach APF. We deploy
our model on both simulation and physical platforms and demonstrate our model
performs robot navigation effectively and safely.
- Abstract(参考訳): 本稿では,未知環境を事前に探索することなく,移動ロボットナビゲーションのための新しい強化学習(rl)ベースの経路生成(rl-pg)手法を提案する。
複数の予測パスポイントは、ロボット追跡のためのRLアプローチを用いて最適化されたディープマルコフモデルによって動的に生成される。
予測点追跡時の安全性を確保するため、ロボットの動作を運動微調整モジュールにより微調整する。
このようなアプローチは、RLアルゴリズムを用いたディープマルコフモデルを用いて計画し、隣接する経路点間の関係に焦点を当てる。
我々は,提案手法がより効果的であり,従来のナビゲーション手法であるDWA-RLよりも成功率が高いという利点を分析した。
シミュレーションと物理プラットフォームの両方にモデルをデプロイし,ロボットナビゲーションを効果的かつ安全に実行することを示す。
関連論文リスト
- Navigating the Human Maze: Real-Time Robot Pathfinding with Generative Imitation Learning [0.0]
目標条件付き自己回帰モデルを導入し,個人間の複雑な相互作用を捉える。
このモデルは、潜在的なロボット軌道サンプルを処理し、周囲の個人の反応を予測する。
論文 参考訳(メタデータ) (2024-08-07T14:32:41Z) - Research on Autonomous Robots Navigation based on Reinforcement Learning [13.559881645869632]
我々は、経路計画と意思決定プロセスを最適化するために、Deep Q Network (DQN) と Proximal Policy Optimization (PPO) モデルを使用します。
様々な複雑なシナリオにおいて,これらのモデルの有効性とロバスト性を検証した。
論文 参考訳(メタデータ) (2024-07-02T00:44:06Z) - Deep Reinforcement Learning with Enhanced PPO for Safe Mobile Robot Navigation [0.6554326244334868]
本研究では,複雑な環境下での自律走行のための移動ロボットの訓練における深層強化学習の適用について検討する。
このロボットは、LiDARセンサデータとディープニューラルネットワークを用いて、障害物を回避しつつ、特定の目標に向かって誘導する制御信号を生成する。
論文 参考訳(メタデータ) (2024-05-25T15:08:36Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Deterministic and Stochastic Analysis of Deep Reinforcement Learning for
Low Dimensional Sensing-based Navigation of Mobile Robots [0.41562334038629606]
本稿では,2つのDeep-RL手法-Deep Deterministic Policy Gradients (DDPG)とSoft Actor-Critic (SAC)の比較分析を行う。
本研究の目的は,ニューラルネットワークアーキテクチャが学習そのものにどのように影響するかを示し,各アプローチにおける空中移動ロボットの時間と距離に基づいて定量的な結果を示すことである。
論文 参考訳(メタデータ) (2022-09-13T22:28:26Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Verifying Learning-Based Robotic Navigation Systems [61.01217374879221]
有効モデル選択に現代検証エンジンをどのように利用できるかを示す。
具体的には、検証を使用して、最適下行動を示す可能性のあるポリシーを検出し、除外する。
我々の研究は、現実世界のロボットにおける準最適DRLポリシーを認識するための検証バックエンドの使用を初めて実証したものである。
論文 参考訳(メタデータ) (2022-05-26T17:56:43Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - LBGP: Learning Based Goal Planning for Autonomous Following in Front [16.13120109400351]
本稿では, 深部強化学習(RL)と古典的軌道計画を組み合わせたハイブリッド・ソリューションについて検討する。
自律ロボットは、人が自由に歩き回るとき、人の前に留まることを目的としています。
本システムは,シミュレーションと実世界実験の両方において,エンド・ツー・エンドの代替品と比較して,先行技術よりも信頼性が高い。
論文 参考訳(メタデータ) (2020-11-05T22:29:30Z) - Path Planning Followed by Kinodynamic Smoothing for Multirotor Aerial
Vehicles (MAVs) [61.94975011711275]
そこで本稿では,RRT*textquotedblrightのテキストを幾何学的にベースとした動き計画手法を提案する。
提案手法では,適応探索空間とステアリング機能を導入したオリジナルのRT*を改良した。
提案手法を様々なシミュレーション環境で検証した。
論文 参考訳(メタデータ) (2020-08-29T09:55:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。