論文の概要: Predictive Maneuver Planning with Deep Reinforcement Learning (PMP-DRL)
for comfortable and safe autonomous driving
- arxiv url: http://arxiv.org/abs/2306.09055v1
- Date: Thu, 15 Jun 2023 11:27:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:03:53.272141
- Title: Predictive Maneuver Planning with Deep Reinforcement Learning (PMP-DRL)
for comfortable and safe autonomous driving
- Title(参考訳): 快適で安全な自動運転のための深部強化学習(PMP-DRL)による予測型マニキュア計画
- Authors: Jayabrata Chowdhury, Vishruth Veerendranath, Suresh Sundaram,
Narasimhan Sundararajan
- Abstract要約: 本稿では,演習計画のためのPMP-DRLモデルを提案する。
その経験から学ぶことで、強化学習(RL)ベースの運転エージェントは、変化する運転条件に適応することができる。
その結果、PMP-DRLは複雑な現実世界のシナリオを処理でき、ルールベースや模倣の模倣よりも快適で安全な操作判断ができることがわかった。
- 参考スコア(独自算出の注目度): 7.3045725197814875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a Predictive Maneuver Planning with Deep Reinforcement
Learning (PMP-DRL) model for maneuver planning. Traditional rule-based maneuver
planning approaches often have to improve their abilities to handle the
variabilities of real-world driving scenarios. By learning from its experience,
a Reinforcement Learning (RL)-based driving agent can adapt to changing driving
conditions and improve its performance over time. Our proposed approach
combines a predictive model and an RL agent to plan for comfortable and safe
maneuvers. The predictive model is trained using historical driving data to
predict the future positions of other surrounding vehicles. The surrounding
vehicles' past and predicted future positions are embedded in context-aware
grid maps. At the same time, the RL agent learns to make maneuvers based on
this spatio-temporal context information. Performance evaluation of PMP-DRL has
been carried out using simulated environments generated from publicly available
NGSIM US101 and I80 datasets. The training sequence shows the continuous
improvement in the driving experiences. It shows that proposed PMP-DRL can
learn the trade-off between safety and comfortability. The decisions generated
by the recent imitation learning-based model are compared with the proposed
PMP-DRL for unseen scenarios. The results clearly show that PMP-DRL can handle
complex real-world scenarios and make better comfortable and safe maneuver
decisions than rule-based and imitative models.
- Abstract(参考訳): 本稿では,深層強化学習(pmp-drl)モデルを用いた予測的操作計画法を提案する。
従来のルールベースのオペレーティングプランニングアプローチは、現実の運転シナリオのバリエーションを扱う能力を改善する必要があることが多い。
その経験から学ぶことで、強化学習(RL)ベースの運転エージェントは、運転条件の変化に適応し、時間とともにその性能を向上させることができる。
提案手法は, 予測モデルとRLエージェントを組み合わせて, 快適で安全な操作を計画する。
予測モデルは、他の周辺車両の将来の位置を予測するために、過去の運転データを用いて訓練される。
周辺車両の過去と予測される将来の位置は、コンテキスト対応グリッドマップに埋め込まれている。
同時に、rlエージェントは、この時空間的コンテキスト情報に基づいて操作することを学ぶ。
NGSIM US101およびI80データセットから生成されたシミュレーション環境を用いて,PMP-DRLの性能評価を行った。
トレーニングシーケンスは、運転経験の継続的な改善を示す。
提案したPMP-DRLは安全性と快適性の間のトレードオフを学習できることを示す。
近年の模倣学習モデルによる決定は、未確認シナリオに対する提案したPMP-DRLと比較される。
その結果、PMP-DRLは複雑な現実世界のシナリオを処理でき、ルールベースや模倣モデルよりも快適で安全な操作判断ができることがわかった。
関連論文リスト
- MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Planning with Adaptive World Models for Autonomous Driving [50.4439896514353]
運動プランナー(MP)は複雑な都市環境における安全なナビゲーションに不可欠である。
最近リリースされたMPベンチマークであるnuPlanは、クローズドループシミュレーションロジックで現実世界の駆動ログを拡張することで、この制限に対処している。
本稿では,モデル予測制御(MPC)ベースのプランナであるAdaptiveDriverを提案する。
論文 参考訳(メタデータ) (2024-06-15T18:53:45Z) - HighwayLLM: Decision-Making and Navigation in Highway Driving with RL-Informed Language Model [5.4854443795779355]
本研究は,大型言語モデル(LLM)の推論能力を利用して,エゴ車両の航法における将来の道程を予測する新しい手法であるHighwayLLMを提案する。
我々のアプローチは、事前訓練された強化学習(RL)モデルも利用して、適切なメタレベルアクションに関する意思決定を行い、ハイレベルプランナーとして機能する。
論文 参考訳(メタデータ) (2024-05-22T11:32:37Z) - Data-efficient Deep Reinforcement Learning for Vehicle Trajectory
Control [6.144517901919656]
強化学習(RL)は、古典的なアプローチよりも優れた制御性能を達成することを約束する。
SAC(Soft-actor critic)のような標準RLアプローチでは、大量のトレーニングデータを収集する必要がある。
近年開発されたディープRL法を車両軌道制御に適用した。
論文 参考訳(メタデータ) (2023-11-30T09:38:59Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Data-Efficient Task Generalization via Probabilistic Model-based Meta
Reinforcement Learning [58.575939354953526]
PACOH-RLはメタ強化学習(Meta-RL)アルゴリズムである。
既存のMeta-RLメソッドは豊富なメタ学習データを必要とし、ロボット工学などの設定で適用性を制限する。
実験の結果,PACOH-RLはモデルベースRLおよびモデルベースMeta-RLベースラインよりも高い性能を示し,新しい動的条件に適応することがわかった。
論文 参考訳(メタデータ) (2023-11-13T18:51:57Z) - Action and Trajectory Planning for Urban Autonomous Driving with
Hierarchical Reinforcement Learning [1.3397650653650457]
本稿では,階層型強化学習法(atHRL)を用いた行動・軌道プランナを提案する。
我々は、複雑な都市運転シナリオにおける広範な実験を通して、atHRLの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2023-06-28T07:11:02Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z) - UMBRELLA: Uncertainty-Aware Model-Based Offline Reinforcement Learning
Leveraging Planning [1.1339580074756188]
オフライン強化学習(RL)は、オフラインデータから意思決定を学ぶためのフレームワークを提供する。
自動運転車(SDV)は、おそらく準最適データセットの振る舞いよりも優れるポリシーを学ぶ。
これはモデルベースのオフラインRLアプローチの使用を動機付け、プランニングを活用する。
論文 参考訳(メタデータ) (2021-11-22T10:37:52Z) - Improving the Exploration of Deep Reinforcement Learning in Continuous
Domains using Planning for Policy Search [6.088695984060244]
本研究では, キノダイナミックプランナを探索戦略に統合し, 生成された環境相互作用からオフラインで制御ポリシーを学習することを提案する。
不活性化システムを含む典型的なRL設定において,PSと最先端D-RL法を比較した。
これはPSPがより良いポリシーを発見するのに役立つトレーニングデータを生成する。
論文 参考訳(メタデータ) (2020-10-24T20:19:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。