論文の概要: Deep reinforcement learning-based longitudinal control strategy for automated vehicles at signalised intersections
- arxiv url: http://arxiv.org/abs/2505.08896v1
- Date: Tue, 13 May 2025 18:38:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.271786
- Title: Deep reinforcement learning-based longitudinal control strategy for automated vehicles at signalised intersections
- Title(参考訳): 信号交差点における車両の深部強化学習に基づく縦方向制御戦略
- Authors: Pankaj Kumar, Aditya Mishra, Pranamesh Chakraborty, Subrahmanya Swamy Peruru,
- Abstract要約: 本研究では,信号交差点における深部強化学習に基づく縦方向車両制御戦略を提案する。
総合的な報酬関数は、特に距離方向に基づく効率報酬に焦点を当てて定式化されている。
DDPG(Deep Deterministic Policy Gradient)とSAC(Soft-Actor Critic)という2つのDRLアルゴリズムが組み込まれている。
- 参考スコア(独自算出の注目度): 2.9398787168955116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing an autonomous vehicle control strategy for signalised intersections (SI) is one of the challenging tasks due to its inherently complex decision-making process. This study proposes a Deep Reinforcement Learning (DRL) based longitudinal vehicle control strategy at SI. A comprehensive reward function has been formulated with a particular focus on (i) distance headway-based efficiency reward, (ii) decision-making criteria during amber light, and (iii) asymmetric acceleration/ deceleration response, along with the traditional safety and comfort criteria. This reward function has been incorporated with two popular DRL algorithms, Deep Deterministic Policy Gradient (DDPG) and Soft-Actor Critic (SAC), which can handle the continuous action space of acceleration/deceleration. The proposed models have been trained on the combination of real-world leader vehicle (LV) trajectories and simulated trajectories generated using the Ornstein-Uhlenbeck (OU) process. The overall performance of the proposed models has been tested using Cumulative Distribution Function (CDF) plots and compared with the real-world trajectory data. The results show that the RL models successfully maintain lower distance headway (i.e., higher efficiency) and jerk compared to human-driven vehicles without compromising safety. Further, to assess the robustness of the proposed models, we evaluated the model performance on diverse safety-critical scenarios, in terms of car-following and traffic signal compliance. Both DDPG and SAC models successfully handled the critical scenarios, while the DDPG model showed smoother action profiles compared to the SAC model. Overall, the results confirm that DRL-based longitudinal vehicle control strategy at SI can help to improve traffic safety, efficiency, and comfort.
- Abstract(参考訳): 信号交差点(SI)のための自律的な車両制御戦略の開発は、本質的に複雑な意思決定プロセスのために難しい課題の1つである。
本研究では, 深部強化学習(DRL)に基づく縦方向車両制御戦略を提案する。
包括的報酬関数は、特に焦点をあてて定式化されている
(i)距離ヘッドウェイに基づく効率報酬
(二)点灯時の意思決定基準、及び
三 従来の安全・快適基準とともに非対称加速度・減速応答
この報酬関数は、2つの一般的なDRLアルゴリズムであるDeep Deterministic Policy Gradient (DDPG)とSoft-Actor Critic (SAC)に組み込まれ、加速/減速の連続的なアクション空間を処理できる。
提案したモデルは、実世界のリーダー車(LV)軌道とオルンシュタイン・ウレンベック(OU)プロセスを用いて生成された模擬軌道の組合せに基づいて訓練されている。
提案したモデル全体の性能を,累積分布関数(CDF)プロットを用いて検証し,実世界の軌道データと比較した。
その結果、RLモデルは、安全性を損なうことなく、人間駆動車と比較して、より低い距離の進路(すなわち、高い効率)とジャークを維持することができた。
さらに,提案モデルのロバスト性を評価するため,車両追従および交通信号のコンプライアンスの観点から,各種安全クリティカルシナリオにおけるモデル性能を評価した。
DDPGモデルとSACモデルの両方が重要なシナリオをうまく処理し,DDPGモデルはSACモデルよりもスムーズな動作プロファイルを示した。
その結果, 交通安全, 効率, 快適性を向上するためには, SIにおけるDRLに基づく縦方向車両制御戦略が有効であることが確認された。
関連論文リスト
- TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - Demystifying the Physics of Deep Reinforcement Learning-Based Autonomous Vehicle Decision-Making [6.243971093896272]
本稿では,ベースラインモデルとしてポリシー最適化に基づくDRLアルゴリズムを用い,オープンソースのAVシミュレーション環境にマルチヘッドアテンションフレームワークを付加する。
第1頭部の重みは隣接する車両の位置を符号化し、第2頭部は先頭車両のみに焦点を当てている。
論文 参考訳(メタデータ) (2024-03-18T02:59:13Z) - Model-free Learning of Corridor Clearance: A Near-term Deployment
Perspective [5.39179984304986]
コネクテッド・アンド・オートマチック・ビークル(CAV)技術の公衆衛生応用は、交通を間接的に調整することで救急医療サービス(EMS)の応答時間を短縮することである。
このトピックに関する既存の研究は、EMS車両の故障が通常の交通に与える影響を見落とし、100%CAVの侵入を仮定し、交差点におけるリアルタイム交通信号タイミングデータと待ち行列長に依存し、最適なモデルに基づくCAV制御戦略を導出する際の交通設定について様々な仮定を行う。
これらの課題を克服し、短期的実世界の適用性を高めるために、深部強化学習(DRL)を用いたCAV制御戦略設計のためのモデルフリーアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-16T06:08:53Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Data-efficient Deep Reinforcement Learning for Vehicle Trajectory
Control [6.144517901919656]
強化学習(RL)は、古典的なアプローチよりも優れた制御性能を達成することを約束する。
SAC(Soft-actor critic)のような標準RLアプローチでは、大量のトレーニングデータを収集する必要がある。
近年開発されたディープRL法を車両軌道制御に適用した。
論文 参考訳(メタデータ) (2023-11-30T09:38:59Z) - Vehicles Control: Collision Avoidance using Federated Deep Reinforcement
Learning [3.8078589880662754]
本稿では,フェデレーションディープ強化学習技術を用いた衝突回避のための車両制御に関する総合的研究について述べる。
私たちの主な目標は、旅行の遅延を最小限に抑え、安全性を優先し、データのプライバシを保護しながら、車の平均速度を高めることです。
論文 参考訳(メタデータ) (2023-08-04T14:26:19Z) - Action and Trajectory Planning for Urban Autonomous Driving with
Hierarchical Reinforcement Learning [1.3397650653650457]
本稿では,階層型強化学習法(atHRL)を用いた行動・軌道プランナを提案する。
我々は、複雑な都市運転シナリオにおける広範な実験を通して、atHRLの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2023-06-28T07:11:02Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。