論文の概要: Deep Reinforcement Learning-based Multi-objective Path Planning on the
Off-road Terrain Environment for Ground Vehicles
- arxiv url: http://arxiv.org/abs/2305.13783v2
- Date: Wed, 12 Jul 2023 11:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 19:06:04.825481
- Title: Deep Reinforcement Learning-based Multi-objective Path Planning on the
Off-road Terrain Environment for Ground Vehicles
- Title(参考訳): 深部強化学習に基づく地上車両のオフロード環境における多目的経路計画
- Authors: Shuqiao Huang, Xiru Wu, Guoming Huang
- Abstract要約: 深層強化学習に基づく2.5D多目的経路計画法(DMOP)を提案する。
DMOPは,(1)高解像度の2.5Dマップを小型の地図に変換する。
同様の計画経路では,提案手法の速度はA*法よりも100倍以上,H3DM法より30倍高速である。
- 参考スコア(独自算出の注目度): 1.5469452301122177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the vastly different energy consumption between up-slope and
down-slope, a path with the shortest length on a complex off-road terrain
environment (2.5D map) is not always the path with the least energy
consumption. For any energy-sensitive vehicle, realizing a good trade-off
between distance and energy consumption in 2.5D path planning is significantly
meaningful. In this paper, we propose a deep reinforcement learning-based 2.5D
multi-objective path planning method (DMOP). The DMOP can efficiently find the
desired path in three steps: (1) Transform the high-resolution 2.5D map into a
small-size map. (2) Use a trained deep Q network (DQN) to find the desired path
on the small-size map. (3) Build the planned path to the original
high-resolution map using a path-enhanced method. In addition, the hybrid
exploration strategy and reward shaping theory are applied to train the DQN.
The reward function is constructed with the information of terrain, distance,
and border. Simulation results show that the proposed method can finish the
multi-objective 2.5D path planning task with significantly high efficiency.
With similar planned paths, the speed of the proposed method is more than 100
times faster than that of the A* method and 30 times faster than that of H3DM
method. Also, simulation proves that the method has powerful reasoning
capability that enables it to perform arbitrary untrained planning tasks.
- Abstract(参考訳): アップスロープとダウンスロープのエネルギー消費が大きく異なるため、複雑なオフロード地形環境(2.5dマップ)で最も短い経路は、常にエネルギー消費量の少ない経路であるとは限らない。
エネルギーに敏感な車両の場合、2.5D経路計画において距離とエネルギー消費の良好なトレードオフを実現することは有意義である。
本稿では,深い強化学習に基づく2.5D多目的経路計画法(DMOP)を提案する。
dmopは、(1)高分解能2.5dマップを小型マップに変換する3つのステップで、望ましいパスを効率的に見つけることができる。
2) 訓練された深度Qネットワーク(DQN)を用いて,小型地図上で所望の経路を求める。
3)path-enhanced 法を用いたオリジナルの高分解能マップへの計画パスの構築。
加えて、dqnの訓練にはハイブリッド探索戦略と報酬形成理論が適用されている。
報酬関数は、地形、距離、国境に関する情報で構築される。
シミュレーションの結果,提案手法は多目的2.5D経路計画タスクを極めて高い効率で完了できることがわかった。
同様の経路が計画されている場合,提案手法の速度はa*法より100倍以上高速であり,h3dm法より30倍高速である。
また、シミュレーションにより、任意の未学習の計画タスクを実行できる強力な推論能力があることが証明された。
関連論文リスト
- PPNet: A Two-Stage Neural Network for End-to-end Path Planning [8.609933204182047]
EDaGe-PPと呼ばれる経路計画のための新しい効率的なデータ生成手法を提案する。
PPNetは15.3msで最適に近い解を見つけることができるが、これは最先端のパスプランナーよりもはるかに短い。
論文 参考訳(メタデータ) (2024-01-18T09:20:27Z) - A Fast and Optimal Learning-based Path Planning Method for Planetary Rovers [5.337162499594818]
本研究では,NNPPと呼ばれる標高マップの最適経路を高速に探索する学習手法を提案する。
NNPPモデルは、多くの事前注釈付き最適経路のデモから、スタート地点とゴール地点のセマンティック情報とマップ表現を学習する。
NNPPモデルにより生成された誘導場は,同じハードウェア条件下での最適経路の探索時間を著しく短縮できることを示す。
論文 参考訳(メタデータ) (2023-08-09T08:31:05Z) - POA: Passable Obstacles Aware Path-planning Algorithm for Navigation of
a Two-wheeled Robot in Highly Cluttered Environments [53.41594627336511]
パッシブル障害物認識(Passable Obstacles Aware, POA)プランナーは, 乱雑な環境下での二輪ロボットのナビゲーション手法である。
我々のアルゴリズムは、二輪ロボットが通過可能な障害物を通り抜ける道を見つけることを可能にする。
論文 参考訳(メタデータ) (2023-07-16T19:44:27Z) - Vertex-based Networks to Accelerate Path Planning Algorithms [3.684936338492373]
本稿では,RT* のサンプリングプロセスを強化するため,頂点に基づくネットワークの利用を提案し,より効率的な経路計画手法を提案する。
我々は、関連するデータ不均衡問題に対処するために焦点損失を採用し、異なるマスキング構成を探索し、システム性能の実用的なトレードオフを決定する。
論文 参考訳(メタデータ) (2023-07-13T20:56:46Z) - Efficient Ground Vehicle Path Following in Game AI [77.34726150561087]
本稿では,ゲームAIに適した地上車両の効率的な追従経路を提案する。
提案したパスフォロワは,一対一シューティングゲームにおいて,様々なテストシナリオを通じて評価される。
その結果,既存の経路と比較すると,立ち往生するイベントの総数が70%減少した。
論文 参考訳(メタデータ) (2023-07-07T04:20:07Z) - GraphWalks: Efficient Shape Agnostic Geodesic Shortest Path Estimation [93.60478281489243]
3次元曲面上の測地線経路を近似する学習可能なネットワークを提案する。
提案手法は,最短経路の効率的な近似と測地距離推定を提供する。
論文 参考訳(メタデータ) (2022-05-30T16:22:53Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Trajectory Design for UAV-Based Internet-of-Things Data Collection: A
Deep Reinforcement Learning Approach [93.67588414950656]
本稿では,無人航空機(UAV)による3D環境におけるIoT(Internet-of-Things)システムについて検討する。
本稿では,TD3-TDCTMアルゴリズムの完成時間最小化のためのトラジェクトリ設計を提案する。
シミュレーションの結果,従来の3つの非学習ベースライン法よりもTD3-TDCTMアルゴリズムの方が優れていることが示された。
論文 参考訳(メタデータ) (2021-07-23T03:33:29Z) - Learning Space Partitions for Path Planning [54.475949279050596]
PlaLaMは2次元ナビゲーションタスクにおける既存の経路計画手法よりも優れており、特に難解な局所最適化の存在下では優れている。
これらは高マルチモーダルな実世界のタスクに移行し、コンパイラフェーズでは最大245%、分子設計では最大0.4の強いベースラインを0-1スケールで上回ります。
論文 参考訳(メタデータ) (2021-06-19T18:06:11Z) - Multi-Agent Path Planning based on MPC and DDPG [14.793341914236166]
モデル予測制御(MPC)とDeep Deterministic Policy Gradient(DDPG)を組み合わせた新しいアルゴリズムを提案する。
ddpg with continuous action spaceは、ロボットに学習と自律的な意思決定機能を提供するように設計されている。
航空母艦デッキや四角形などの不確定な環境でのシミュレーション実験にunity 3dを用いる。
論文 参考訳(メタデータ) (2021-02-26T02:57:13Z) - UAV Path Planning using Global and Local Map Information with Deep
Reinforcement Learning [16.720630804675213]
本研究は, 深部強化学習(DRL)に基づく自律型UAV経路計画法を提案する。
我々は、UAVの目標は、データ収集(DH)への関心領域を調査することであり、UAVは分散IoT(Internet of Things)センサーデバイスからデータを収集することである。
環境の構造化マップ情報を活用することで、異なるミッションシナリオで同一のアーキテクチャを持つ二重深度Q-networks(DDQN)を訓練する。
論文 参考訳(メタデータ) (2020-10-14T09:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。