論文の概要: Deep Reinforcement Learning-based Multi-objective Path Planning on the
Off-road Terrain Environment for Ground Vehicles
- arxiv url: http://arxiv.org/abs/2305.13783v2
- Date: Wed, 12 Jul 2023 11:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 19:06:04.825481
- Title: Deep Reinforcement Learning-based Multi-objective Path Planning on the
Off-road Terrain Environment for Ground Vehicles
- Title(参考訳): 深部強化学習に基づく地上車両のオフロード環境における多目的経路計画
- Authors: Shuqiao Huang, Xiru Wu, Guoming Huang
- Abstract要約: 深層強化学習に基づく2.5D多目的経路計画法(DMOP)を提案する。
DMOPは,(1)高解像度の2.5Dマップを小型の地図に変換する。
同様の計画経路では,提案手法の速度はA*法よりも100倍以上,H3DM法より30倍高速である。
- 参考スコア(独自算出の注目度): 1.5469452301122177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the vastly different energy consumption between up-slope and
down-slope, a path with the shortest length on a complex off-road terrain
environment (2.5D map) is not always the path with the least energy
consumption. For any energy-sensitive vehicle, realizing a good trade-off
between distance and energy consumption in 2.5D path planning is significantly
meaningful. In this paper, we propose a deep reinforcement learning-based 2.5D
multi-objective path planning method (DMOP). The DMOP can efficiently find the
desired path in three steps: (1) Transform the high-resolution 2.5D map into a
small-size map. (2) Use a trained deep Q network (DQN) to find the desired path
on the small-size map. (3) Build the planned path to the original
high-resolution map using a path-enhanced method. In addition, the hybrid
exploration strategy and reward shaping theory are applied to train the DQN.
The reward function is constructed with the information of terrain, distance,
and border. Simulation results show that the proposed method can finish the
multi-objective 2.5D path planning task with significantly high efficiency.
With similar planned paths, the speed of the proposed method is more than 100
times faster than that of the A* method and 30 times faster than that of H3DM
method. Also, simulation proves that the method has powerful reasoning
capability that enables it to perform arbitrary untrained planning tasks.
- Abstract(参考訳): アップスロープとダウンスロープのエネルギー消費が大きく異なるため、複雑なオフロード地形環境(2.5dマップ)で最も短い経路は、常にエネルギー消費量の少ない経路であるとは限らない。
エネルギーに敏感な車両の場合、2.5D経路計画において距離とエネルギー消費の良好なトレードオフを実現することは有意義である。
本稿では,深い強化学習に基づく2.5D多目的経路計画法(DMOP)を提案する。
dmopは、(1)高分解能2.5dマップを小型マップに変換する3つのステップで、望ましいパスを効率的に見つけることができる。
2) 訓練された深度Qネットワーク(DQN)を用いて,小型地図上で所望の経路を求める。
3)path-enhanced 法を用いたオリジナルの高分解能マップへの計画パスの構築。
加えて、dqnの訓練にはハイブリッド探索戦略と報酬形成理論が適用されている。
報酬関数は、地形、距離、国境に関する情報で構築される。
シミュレーションの結果,提案手法は多目的2.5D経路計画タスクを極めて高い効率で完了できることがわかった。
同様の経路が計画されている場合,提案手法の速度はa*法より100倍以上高速であり,h3dm法より30倍高速である。
また、シミュレーションにより、任意の未学習の計画タスクを実行できる強力な推論能力があることが証明された。
関連論文リスト
- LLM-A*: Large Language Model Enhanced Incremental Heuristic Search on Path Planning [91.95362946266577]
経路計画はロボット工学と自律航法における基本的な科学的問題である。
A*やその変種のような伝統的なアルゴリズムは、パスの妥当性を保証することができるが、状態空間が大きくなるにつれて、計算とメモリの非効率が著しく低下する。
本稿では, A* の正確なパスフィニング能力と LLM のグローバルな推論能力とを相乗的に組み合わせた LLM ベースの経路計画法を提案する。
このハイブリッドアプローチは、特に大規模シナリオにおいて、パス妥当性の完全性を維持しながら、時間と空間の複雑さの観点からパスフィニング効率を向上させることを目的としている。
論文 参考訳(メタデータ) (2024-06-20T01:24:30Z) - OTO Planner: An Efficient Only Travelling Once Exploration Planner for Complex and Unknown Environments [6.128246045267511]
オンリートラベル・ワン・プランナー」は複雑な環境下で繰り返し経路を減少させる効率的な探索プランナーである。
高速フロンティア更新、視点評価、視点改善が含まれる。
探査時間と移動距離を10%から20%削減し、フロンティア検出の速度を6~9倍向上させる。
論文 参考訳(メタデータ) (2024-06-11T14:23:48Z) - PPNet: A Two-Stage Neural Network for End-to-end Path Planning [8.609933204182047]
EDaGe-PPと呼ばれる経路計画のための新しい効率的なデータ生成手法を提案する。
PPNetは15.3msで最適に近い解を見つけることができるが、これは最先端のパスプランナーよりもはるかに短い。
論文 参考訳(メタデータ) (2024-01-18T09:20:27Z) - NNPP: A Learning-Based Heuristic Model for Accelerating Optimal Path Planning on Uneven Terrain [5.337162499594818]
本稿では,この縮小された検索空間内でのみ最適な経路をAstarのような基礎アルゴリズムで見つけることができるNNPPモデルを提案する。
NNPPモデルは、多くの事前注釈付き最適経路のデモから、スタート地点とゴール地点に関する情報とマップ表現を学習する。
新規地図上での経路計画のテキストカラー化が可能である。
論文 参考訳(メタデータ) (2023-08-09T08:31:05Z) - POA: Passable Obstacles Aware Path-planning Algorithm for Navigation of
a Two-wheeled Robot in Highly Cluttered Environments [53.41594627336511]
パッシブル障害物認識(Passable Obstacles Aware, POA)プランナーは, 乱雑な環境下での二輪ロボットのナビゲーション手法である。
我々のアルゴリズムは、二輪ロボットが通過可能な障害物を通り抜ける道を見つけることを可能にする。
論文 参考訳(メタデータ) (2023-07-16T19:44:27Z) - Efficient Ground Vehicle Path Following in Game AI [77.34726150561087]
本稿では,ゲームAIに適した地上車両の効率的な追従経路を提案する。
提案したパスフォロワは,一対一シューティングゲームにおいて,様々なテストシナリオを通じて評価される。
その結果,既存の経路と比較すると,立ち往生するイベントの総数が70%減少した。
論文 参考訳(メタデータ) (2023-07-07T04:20:07Z) - GraphWalks: Efficient Shape Agnostic Geodesic Shortest Path Estimation [93.60478281489243]
3次元曲面上の測地線経路を近似する学習可能なネットワークを提案する。
提案手法は,最短経路の効率的な近似と測地距離推定を提供する。
論文 参考訳(メタデータ) (2022-05-30T16:22:53Z) - Trajectory Design for UAV-Based Internet-of-Things Data Collection: A
Deep Reinforcement Learning Approach [93.67588414950656]
本稿では,無人航空機(UAV)による3D環境におけるIoT(Internet-of-Things)システムについて検討する。
本稿では,TD3-TDCTMアルゴリズムの完成時間最小化のためのトラジェクトリ設計を提案する。
シミュレーションの結果,従来の3つの非学習ベースライン法よりもTD3-TDCTMアルゴリズムの方が優れていることが示された。
論文 参考訳(メタデータ) (2021-07-23T03:33:29Z) - Learning Space Partitions for Path Planning [54.475949279050596]
PlaLaMは2次元ナビゲーションタスクにおける既存の経路計画手法よりも優れており、特に難解な局所最適化の存在下では優れている。
これらは高マルチモーダルな実世界のタスクに移行し、コンパイラフェーズでは最大245%、分子設計では最大0.4の強いベースラインを0-1スケールで上回ります。
論文 参考訳(メタデータ) (2021-06-19T18:06:11Z) - Multi-Agent Path Planning based on MPC and DDPG [14.793341914236166]
モデル予測制御(MPC)とDeep Deterministic Policy Gradient(DDPG)を組み合わせた新しいアルゴリズムを提案する。
ddpg with continuous action spaceは、ロボットに学習と自律的な意思決定機能を提供するように設計されている。
航空母艦デッキや四角形などの不確定な環境でのシミュレーション実験にunity 3dを用いる。
論文 参考訳(メタデータ) (2021-02-26T02:57:13Z) - UAV Path Planning using Global and Local Map Information with Deep
Reinforcement Learning [16.720630804675213]
本研究は, 深部強化学習(DRL)に基づく自律型UAV経路計画法を提案する。
我々は、UAVの目標は、データ収集(DH)への関心領域を調査することであり、UAVは分散IoT(Internet of Things)センサーデバイスからデータを収集することである。
環境の構造化マップ情報を活用することで、異なるミッションシナリオで同一のアーキテクチャを持つ二重深度Q-networks(DDQN)を訓練する。
論文 参考訳(メタデータ) (2020-10-14T09:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。