論文の概要: Safety Aware Autonomous Path Planning Using Model Predictive
Reinforcement Learning for Inland Waterways
- arxiv url: http://arxiv.org/abs/2311.09878v1
- Date: Thu, 16 Nov 2023 13:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 14:06:13.881075
- Title: Safety Aware Autonomous Path Planning Using Model Predictive
Reinforcement Learning for Inland Waterways
- Title(参考訳): モデル予測強化学習による内陸水路の安全を考慮した自律経路計画
- Authors: Astrid Vanneste, Simon Vanneste, Olivier Vasseur, Robin Janssens,
Mattias Billast, Ali Anwar, Kevin Mets, Tom De Schepper, Siegfried Mercelis,
Peter Hellinckx
- Abstract要約: モデル予測強化学習(MPRL)と呼ばれる強化学習に基づく新しい経路計画手法を提案する。
MPRLは、船が従うための一連のウェイポイントを計算する。
提案手法を2つのシナリオで実証し,Frenetフレームを用いた経路計画とPPOエージェントに基づく経路計画との比較を行った。
- 参考スコア(独自算出の注目度): 2.0623470039259946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, interest in autonomous shipping in urban waterways has
increased significantly due to the trend of keeping cars and trucks out of city
centers. Classical approaches such as Frenet frame based planning and potential
field navigation often require tuning of many configuration parameters and
sometimes even require a different configuration depending on the situation. In
this paper, we propose a novel path planning approach based on reinforcement
learning called Model Predictive Reinforcement Learning (MPRL). MPRL calculates
a series of waypoints for the vessel to follow. The environment is represented
as an occupancy grid map, allowing us to deal with any shape of waterway and
any number and shape of obstacles. We demonstrate our approach on two scenarios
and compare the resulting path with path planning using a Frenet frame and path
planning based on a proximal policy optimization (PPO) agent. Our results show
that MPRL outperforms both baselines in both test scenarios. The PPO based
approach was not able to reach the goal in either scenario while the Frenet
frame approach failed in the scenario consisting of a corner with obstacles.
MPRL was able to safely (collision free) navigate to the goal in both of the
test scenarios.
- Abstract(参考訳): 近年、都市水路における自律輸送への関心は、自動車やトラックを市中心部から遠ざける傾向から大きく高まっている。
Frenetフレームベースの計画や潜在的なフィールドナビゲーションのような古典的なアプローチは、多くの設定パラメータのチューニングを必要とし、時には状況に応じて異なる設定を必要とすることもある。
本稿では,モデル予測強化学習(MPRL)と呼ばれる強化学習に基づく新しい経路計画手法を提案する。
MPRLは、船が従うための一連のウェイポイントを計算する。
環境は占有域のグリッドマップとして表現され、水路の形や障害物の数や形を扱うことができます。
提案手法を2つのシナリオで実証し,Frenetフレームを用いた経路計画とPPOエージェントに基づく経路計画との比較を行った。
その結果,mprlは両方のテストシナリオにおいて,両方のベースラインよりも優れていた。
PPOベースのアプローチはどちらのシナリオでも目標に到達できなかったが、Frenetのフレームアプローチは障害のあるコーナーで構成されるシナリオで失敗した。
MPRLは、両方のテストシナリオで安全に(コリションフリーで)ゴールにナビゲートすることができた。
関連論文リスト
- WROOM: An Autonomous Driving Approach for Off-Road Navigation [17.74237088460657]
オフロード環境における自動運転車のためのエンドツーエンド強化学習システム(RL)を設計する。
ルールベースのコントローラを模倣してエージェントを温め、PPO(Proximal Policy Optimization)を利用してポリシーを改善する。
オフロード走行シナリオを再現する新しいシミュレーション環境を提案し,本提案手法を実車に展開する。
論文 参考訳(メタデータ) (2024-04-12T23:55:59Z) - LLM-Assist: Enhancing Closed-Loop Planning with Language-Based Reasoning [65.86754998249224]
従来のルールベースプランナとLCMベースのプランナを併用した,新しいハイブリッドプランナを開発した。
当社のアプローチでは,既存のプランナが苦労する複雑なシナリオをナビゲートし,合理的なアウトプットを生成すると同時に,ルールベースのアプローチと連携して作業する。
論文 参考訳(メタデータ) (2023-12-30T02:53:45Z) - Integration of Reinforcement Learning Based Behavior Planning With
Sampling Based Motion Planning for Automated Driving [0.5801044612920815]
本研究では,高度行動計画のための訓練された深層強化学習ポリシーを用いる方法を提案する。
私たちの知る限りでは、この研究は、この方法で深層強化学習を適用した最初のものである。
論文 参考訳(メタデータ) (2023-04-17T13:49:55Z) - Optimizing Trajectories for Highway Driving with Offline Reinforcement
Learning [11.970409518725491]
自律運転に対する強化学習に基づくアプローチを提案する。
我々のエージェントの性能を他の4つのハイウェイ運転エージェントと比較する。
ランダムに収集されたデータを持つオフライントレーニングエージェントが、望ましい速度に可能な限り近い速度で、他のエージェントよりも優れた速度で、スムーズに駆動することを学ぶことを実証します。
論文 参考訳(メタデータ) (2022-03-21T13:13:08Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Generating Useful Accident-Prone Driving Scenarios via a Learned Traffic
Prior [135.78858513845233]
STRIVEは、特定のプランナーが衝突のような望ましくない振る舞いを発生させるような、困難なシナリオを自動的に生成する手法である。
シナリオの妥当性を維持するために、キーとなるアイデアは、グラフベースの条件付きVAEという形で、学習した交通運動モデルを活用することである。
その後の最適化は、シナリオの"解決"を見つけるために使用され、与えられたプランナーを改善するのに有効である。
論文 参考訳(メタデータ) (2021-12-09T18:03:27Z) - Motion Planning for Autonomous Vehicles in the Presence of Uncertainty
Using Reinforcement Learning [0.0]
不確実性の下での運動計画は、自動運転車の開発における主要な課題の1つである。
最悪の事例を最適化して不確実性を管理するための強化学習に基づくソリューションを提案する。
提案手法は従来のRLアルゴリズムよりもはるかに優れた動作計画行動を示し,人間の運転スタイルと相容れない動作を示す。
論文 参考訳(メタデータ) (2021-10-01T20:32:25Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z) - Path Planning Followed by Kinodynamic Smoothing for Multirotor Aerial
Vehicles (MAVs) [61.94975011711275]
そこで本稿では,RRT*textquotedblrightのテキストを幾何学的にベースとした動き計画手法を提案する。
提案手法では,適応探索空間とステアリング機能を導入したオリジナルのRT*を改良した。
提案手法を様々なシミュレーション環境で検証した。
論文 参考訳(メタデータ) (2020-08-29T09:55:49Z) - Reinforcement Learning for Low-Thrust Trajectory Design of
Interplanetary Missions [77.34726150561087]
本稿では, 惑星間軌道のロバスト設計における強化学習の適用について検討する。
最先端アルゴリズムのオープンソース実装が採用されている。
その結果得られた誘導制御ネットワークは、堅牢な名目的軌道と関連する閉ループ誘導法の両方を提供する。
論文 参考訳(メタデータ) (2020-08-19T15:22:15Z) - Integrating Deep Reinforcement Learning with Model-based Path Planners
for Automated Driving [0.0]
本稿では、経路計画管を視覚ベースのDRLフレームワークに統合するためのハイブリッドアプローチを提案する。
要約すると、DRLエージェントは、パスプランナーのウェイポイントをできるだけ近くに追従するように訓練される。
実験の結果,提案手法は経路を計画し,ランダムに選択した起点-終点間を移動可能であることがわかった。
論文 参考訳(メタデータ) (2020-02-02T17:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。