論文の概要: Autonomous Vehicle Lateral Control Using Deep Reinforcement Learning with MPC-PID Demonstration
- arxiv url: http://arxiv.org/abs/2506.04040v1
- Date: Wed, 04 Jun 2025 15:05:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.401853
- Title: Autonomous Vehicle Lateral Control Using Deep Reinforcement Learning with MPC-PID Demonstration
- Title(参考訳): MPC-PIDデモによる深部強化学習を用いた自動運転車の横方向制御
- Authors: Chengdong Wu, Sven Kirchner, Nils Purschke, Alois C. Knoll,
- Abstract要約: コントローラーは自動運転パイプラインにおいて最も重要なモジュールの1つである。
本研究では, 測定誤差や簡易化による車両モデルの不完全性にもかかわらず, 強化学習に基づく横方向制御手法を提案する。
- 参考スコア(独自算出の注目度): 23.245716549852332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The controller is one of the most important modules in the autonomous driving pipeline, ensuring the vehicle reaches its desired position. In this work, a reinforcement learning based lateral control approach, despite the imperfections in the vehicle models due to measurement errors and simplifications, is presented. Our approach ensures comfortable, efficient, and robust control performance considering the interface between controlling and other modules. The controller consists of the conventional Model Predictive Control (MPC)-PID part as the basis and the demonstrator, and the Deep Reinforcement Learning (DRL) part which leverages the online information from the MPC-PID part. The controller's performance is evaluated in CARLA using the ground truth of the waypoints as inputs. Experimental results demonstrate the effectiveness of the controller when vehicle information is incomplete, and the training of DRL can be stabilized with the demonstration part. These findings highlight the potential to reduce development and integration efforts for autonomous driving pipelines in the future.
- Abstract(参考訳): コントローラーは自律走行パイプラインにおいて最も重要なモジュールの1つであり、車両が望ましい位置に到達することを保証している。
本研究では, 車両モデルにおける測定誤差や簡易化による不完全性にもかかわらず, 強化学習に基づく横方向制御手法を提案する。
提案手法は,制御モジュールと他のモジュールとのインタフェースを考慮した,快適で効率的かつ堅牢な制御性能を実現する。
コントローラは、基本となる従来のモデル予測制御(MPC)-PID部と、MPC-PID部からのオンライン情報を活用する深層強化学習(DRL)部とから構成される。
コントローラの性能はCARLAにおいて、ウェイポイントの真理を入力として評価する。
実験結果から、車両情報が不完全である場合の制御装置の有効性が示され、DRLの訓練を実演部で安定させることができる。
これらの知見は、将来自動運転パイプラインの開発と統合の取り組みを減らす可能性を浮き彫りにしている。
関連論文リスト
- First, Learn What You Don't Know: Active Information Gathering for Driving at the Limits of Handling [38.468291768795865]
不安定なシステムでは、オンライン適応は信頼性の高い同時学習と制御を確保するのに十分ではないかもしれない。
高速なオンライン適応を実現するため,ベイジアン・メタラーニング MPC フレームワークを提案する。
Toyota Supraの実験は、このフレームワークがダイナミックドリフト操作における信頼性の高い制御を可能にすることを示している。
論文 参考訳(メタデータ) (2024-10-31T18:02:30Z) - A comparison of RL-based and PID controllers for 6-DOF swimming robots:
hybrid underwater object tracking [8.362739554991073]
本稿では,PIDコントローラの代替として,集中型深層Q-network(DQN)コントローラを用いた調査と評価を行う。
我々の主な焦点は、この遷移を水中物体追跡の特定のケースで説明することに集中している。
本実験は,Unityをベースとしたシミュレータで実施し,分離したPIDコントローラ上での集中型RLエージェントの有効性を検証した。
論文 参考訳(メタデータ) (2024-01-29T23:14:15Z) - Modelling, Positioning, and Deep Reinforcement Learning Path Tracking
Control of Scaled Robotic Vehicles: Design and Experimental Validation [3.807917169053206]
スケールされたロボットカーは通常、車両の状態の推定と制御に特化したタスクを含む階層的な制御機構を備えている。
本稿では, (i) フェデレートされた拡張カルマンフィルタ (FEKF) と (ii) エキスパートデモレータを用いて訓練された新しい深部強化学習 (DRL) パストラッキングコントローラを提案する。
実験により検証されたモデルは、(i)FEKFの設計を支援するために使用され、(ii)DRLに基づく経路追跡アルゴリズムをトレーニングするためのデジタルツインとして機能する。
論文 参考訳(メタデータ) (2024-01-10T14:40:53Z) - DriveMLM: Aligning Multi-Modal Large Language Models with Behavioral
Planning States for Autonomous Driving [69.82743399946371]
DriveMLMは、現実的なシミュレータでクローズループの自律運転を実行するためのフレームワークである。
モジュールADシステムの動作計画モジュールをモデル化するために,MLLM (Multi-modal LLM) を用いる。
このモデルは、Apolloのような既存のADシステムでプラグイン・アンド・プレイすることで、クローズループ運転を行うことができる。
論文 参考訳(メタデータ) (2023-12-14T18:59:05Z) - Model-Based Reinforcement Learning with Isolated Imaginations [61.67183143982074]
モデルに基づく強化学習手法であるIso-Dream++を提案する。
我々は、切り離された潜在的想像力に基づいて政策最適化を行う。
これにより、野生の混合力学源を孤立させることで、長い水平振動子制御タスクの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-03-27T02:55:56Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Deep Reinforcement Learning Aided Platoon Control Relying on V2X
Information [78.18186960475974]
車両間通信(V2X)が小隊制御性能に及ぼす影響について検討した。
我々の目的は、最も適切な状態空間を構築するために、車両間で共有されるべき特定の情報の集合を見つけることである。
状態空間に含めると、より高い状態次元を持つ負の効果を相殺する確率が高いため、より有益な情報が伝達においてより高い優先度で与えられる。
論文 参考訳(メタデータ) (2022-03-28T02:11:54Z) - Data-Efficient Deep Reinforcement Learning for Attitude Control of
Fixed-Wing UAVs: Field Experiments [0.37798600249187286]
DRLは、元の非線形力学を直接操作する固定翼UAVの姿勢制御をうまく学べることを示す。
我々は,UAVで学習したコントローラを飛行試験で展開し,最先端のArduPlane比例積分微分(PID)姿勢制御と同等の性能を示す。
論文 参考訳(メタデータ) (2021-11-07T19:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。