論文の概要: Avoidance Navigation Based on Offline Pre-Training Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2308.01551v1
- Date: Thu, 3 Aug 2023 06:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 15:06:34.375706
- Title: Avoidance Navigation Based on Offline Pre-Training Reinforcement
Learning
- Title(参考訳): オフライン事前学習強化学習に基づく回避度ナビゲーション
- Authors: Yang Wenkai Ji Ruihang Zhang Yuxiang Lei Hao and Zhao Zijie
- Abstract要約: 本稿では,移動ロボットの地図を使わずに回避ナビゲーションを行うための,事前学習型深部強化学習(DRL)を提案する。
早期の非効率なランダム探索を高速化するために,効率的なオフライン学習戦略を提案する。
DRLモデルは, 異なる環境下で普遍的な汎用能力を有することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a Pre-Training Deep Reinforcement Learning(DRL) for
avoidance navigation without map for mobile robots which map raw sensor data to
control variable and navigate in an unknown environment. The efficient offline
training strategy is proposed to speed up the inefficient random explorations
in early stage and we also collect a universal dataset including expert
experience for offline training, which is of some significance for other
navigation training work. The pre-training and prioritized expert experience
are proposed to reduce 80\% training time and has been verified to improve the
2 times reward of DRL. The advanced simulation gazebo with real physical
modelling and dynamic equations reduce the gap between sim-to-real. We train
our model a corridor environment, and evaluate the model in different
environment getting the same effect. Compared to traditional method navigation,
we can confirm the trained model can be directly applied into different
scenarios and have the ability to no collision navigate. It was demonstrated
that our DRL model have universal general capacity in different environment.
- Abstract(参考訳): 本稿では,センサデータのマップを未知環境における変数の制御とナビゲートを行う移動ロボットに対して,マップのない回避ナビゲーションのための事前学習深度学習(DRL)を提案する。
早期の非効率なランダム探索を高速化するために,効率的なオフライントレーニング戦略を提案するとともに,他のナビゲーショントレーニング作業において重要なオフライントレーニングのエキスパートエクスペリエンスを含む,汎用的なデータセットも収集する。
事前訓練と優先順位付けのエキスパートエクスペリエンスは,80\%のトレーニング時間を短縮するために提案され,drlの2倍の報酬向上が確認されている。
実際の物理モデリングと動的方程式を用いた高度なシミュレーションガゼボは、sim-to-real間のギャップを減らす。
モデルを回廊環境に訓練し,同じ効果を得られる異なる環境でモデルを評価する。
従来のメソッドナビゲーションと比較して、トレーニングされたモデルがさまざまなシナリオに直接適用可能であることを確認することができ、衝突を回避できる。
DRLモデルは異なる環境下で普遍的な汎用能力を持つことを示した。
関連論文リスト
- Traffic expertise meets residual RL: Knowledge-informed model-based residual reinforcement learning for CAV trajectory control [1.5361702135159845]
本稿では,知識インフォームドモデルに基づく残留強化学習フレームワークを提案する。
交通専門家の知識を仮想環境モデルに統合し、基本力学にIntelligent Driver Model(IDM)、残留力学にニューラルネットワークを使用する。
本稿では,従来の制御手法を残差RLと組み合わせて,スクラッチから学習することなく,効率的な学習と政策最適化を容易にする新しい戦略を提案する。
論文 参考訳(メタデータ) (2024-08-30T16:16:57Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Offline Reinforcement Learning for Visual Navigation [66.88830049694457]
ReViNDは、ロボットナビゲーションのための最初のオフラインRLシステムで、これまで収集されたデータを利用して、現実世界でユーザーが指定した報酬関数を最適化する。
ReViNDは、このデータセットからのオフライントレーニングのみを使用して、遠方の目標にナビゲートできることを示し、ユーザ指定の報酬関数に基づいて、質的に異なる振る舞いを示す。
論文 参考訳(メタデータ) (2022-12-16T02:23:50Z) - Vessel-following model for inland waterways based on deep reinforcement
learning [0.0]
本研究の目的は、複雑な車両動特性と環境障害に対するRLに基づく車両追従の実現可能性を検討することである。
そこで本研究では,現実的な船舶力学に基づく内陸水路の船体追従モデルを構築した。
モデルでは,すべてのシナリオにおいて安全で快適な運転が示され,優れた一般化能力が証明された。
論文 参考訳(メタデータ) (2022-07-07T12:19:03Z) - Visual-Language Navigation Pretraining via Prompt-based Environmental
Self-exploration [83.96729205383501]
本稿では,言語埋め込みの高速適応を実現するために,プロンプトベースの学習を導入する。
我々のモデルは、VLNやREVERIEを含む多様な視覚言語ナビゲーションタスクに適応することができる。
論文 参考訳(メタデータ) (2022-03-08T11:01:24Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Human-Aware Robot Navigation via Reinforcement Learning with Hindsight
Experience Replay and Curriculum Learning [28.045441768064215]
強化学習アプローチは、シーケンシャルな意思決定問題を解決する優れた能力を示している。
本研究では,実演データを使わずにRLエージェントを訓練する作業を検討する。
密集層における最適なナビゲーションポリシーを効率的に学習するために,後視体験リプレイ(HER)とカリキュラム学習(CL)技術をRLに組み込むことを提案する。
論文 参考訳(メタデータ) (2021-10-09T13:18:11Z) - An A* Curriculum Approach to Reinforcement Learning for RGBD Indoor
Robot Navigation [6.660458629649825]
最近リリースされたhabitatのようなフォトリアリスティックシミュレータは、知覚から直接制御アクションを出力するネットワークのトレーニングを可能にする。
本稿では,知覚の訓練とニューラルネットの制御を分離し,経路の複雑さを徐々に増すことにより,この問題を克服しようとする。
論文 参考訳(メタデータ) (2021-01-05T20:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。