論文の概要: Learning to Tune Pure Pursuit in Autonomous Racing: Joint Lookahead and Steering-Gain Control with PPO
- arxiv url: http://arxiv.org/abs/2602.18386v1
- Date: Fri, 20 Feb 2026 17:48:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.401986
- Title: Learning to Tune Pure Pursuit in Autonomous Racing: Joint Lookahead and Steering-Gain Control with PPO
- Title(参考訳): 自律レースにおける純装具の学習:PPOによる共同ルックアヘッドとステアリング-ゲイン制御
- Authors: Mohamed Elgouhary, Amr S. El-Wakeel,
- Abstract要約: Pure Pursuit (PP) は、リアルタイムパストラッキングのための自律走行に広く使われている。
本稿では,Ldとステアリングゲインgを協調的に選択する強化学習(RL)手法を提案する。
シミュレーションと実車試験を通して、提案したRL-PPコントローラは、固定ヘッドPP、ベロシティスケジューリング適応PP、RLルックアヘッドのみの変種を一貫して上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pure Pursuit (PP) is widely used in autonomous racing for real-time path tracking due to its efficiency and geometric clarity, yet performance is highly sensitive to how key parameters-lookahead distance and steering gain-are chosen. Standard velocity-based schedules adjust these only approximately and often fail to transfer across tracks and speed profiles. We propose a reinforcement-learning (RL) approach that jointly chooses the lookahead Ld and a steering gain g online using Proximal Policy Optimization (PPO). The policy observes compact state features (speed and curvature taps) and outputs (Ld, g) at each control step. Trained in F1TENTH Gym and deployed in a ROS 2 stack, the policy drives PP directly (with light smoothing) and requires no per-map retuning. Across simulation and real-car tests, the proposed RL-PP controller that jointly selects (Ld, g) consistently outperforms fixed-lookahead PP, velocity-scheduled adaptive PP, and an RL lookahead-only variant, and it also exceeds a kinematic MPC raceline tracker under our evaluated settings in lap time, path-tracking accuracy, and steering smoothness, demonstrating that policy-guided parameter tuning can reliably improve classical geometry-based control.
- Abstract(参考訳): Pure Pursuit (PP) は、その効率性と幾何的明快さにより、リアルタイムパストラッキングの自律走行に広く用いられているが、重要なパラメーターと視線距離とステアリングゲインの選択方法には非常に敏感である。
標準速度ベースのスケジュールは、これらを概ね調整するだけであり、しばしば線路と速度プロファイル間での転送に失敗する。
本稿では,PPO(Proximal Policy Optimization)を用いて,ルックアヘッドLdとステアリングゲインgを協調的に選択する強化学習(RL)手法を提案する。
このポリシーは、コンパクトな状態特徴(速度および曲率タップ)を観察し、各制御ステップで出力(Ld,g)を行う。
F1TENTH Gymで訓練され、ROS 2スタックにデプロイされ、ポリシーはPPを直接駆動する(光の平滑化を伴う)。
シミュレーション, 実車走行試験において, (Ld, g) を連続的に選択するRL-PP制御器は, 固定ヘッドPP, 速度スケジューリング適応PP, およびRLルックアヘッドのみの変種よりも優れており, また, 走行時間, 経路追従精度, ステアリングスムーズ性などの評価設定下において, キネティックMPCレースライントラッカーを超え, 政策誘導パラメータチューニングが古典的幾何学的制御を確実に改善できることを示した。
関連論文リスト
- Evaluation of Local Planner-Based Stanley Control in Autonomous RC Car Racing Series [0.0]
本稿では,自動RCカーレースの制御手法を提案する。
実際のLiDARポイントクラウド上では、ローカルパスのみを計画している。
1/10サイズのRCカーでテストし、ベースソリューションから実際のF110thレースにおける最適設定までのチューニング手順を示す。
論文 参考訳(メタデータ) (2024-08-27T15:50:31Z) - A Tricycle Model to Accurately Control an Autonomous Racecar with Locked
Differential [71.53284767149685]
自動オープンホイールレースカーの側面力学に対するロックディファレンシャルの影響をモデル化するための新しい定式化を提案する。
本稿では,マイクロステップの離散化手法を用いて,動的に線形化し,実時間実装に適した予測を行う。
論文 参考訳(メタデータ) (2023-12-22T16:29:55Z) - Partial End-to-end Reinforcement Learning for Robustness Against Modelling Error in Autonomous Racing [0.0]
本稿では、自動運転車における強化学習(RL)ソリューションの性能向上の問題に対処する。
計画タスクと制御タスクを分離する部分的なエンドツーエンドアルゴリズムを提案する。
従来の制御器のロバスト性を活用することにより,本アルゴリズムは標準のエンドツーエンドアルゴリズムよりもモデルミスマッチに対するロバスト性を向上する。
論文 参考訳(メタデータ) (2023-12-11T14:27:10Z) - AutoRL Hyperparameter Landscapes [69.15927869840918]
強化学習(Reinforcement Learning, RL)は印象的な結果を生み出すことができるが、その使用はハイパーパラメータがパフォーマンスに与える影響によって制限されている。
我々は,これらのハイパーパラメータの景観を1つの時間だけではなく,複数の時間内に構築し,解析する手法を提案する。
これは、ハイパーパラメータがトレーニング中に動的に調整されるべきであるという理論を支持し、ランドスケープ解析によって得られるAutoRL問題に関するさらなる洞察の可能性を示している。
論文 参考訳(メタデータ) (2023-04-05T12:14:41Z) - Tuning Path Tracking Controllers for Autonomous Cars Using Reinforcement
Learning [0.0]
本稿では,自動運転車のための強化学習(Reinforcement Learning, RL)に基づく適応経路追跡制御システムを提案する。
トラッカーのチューニングは、学習されたQラーニングアルゴリズムを用いて、横方向および操舵軌道誤差を最小化する。
論文 参考訳(メタデータ) (2023-01-09T14:17:12Z) - Motion Planning and Control for Multi Vehicle Autonomous Racing at High
Speeds [100.61456258283245]
本稿では,自律走行のための多層移動計画と制御アーキテクチャを提案する。
提案手法はダララのAV-21レースカーに適用され、楕円形のレーストラックで25$m/s2$まで加速試験された。
論文 参考訳(メタデータ) (2022-07-22T15:16:54Z) - Policy Search for Model Predictive Control with Application to Agile
Drone Flight [56.24908013905407]
MPCのためのポリシ・フォー・モデル・予測制御フレームワークを提案する。
具体的には、パラメータ化コントローラとしてMPCを定式化し、パラメータ化の難しい決定変数を高レベルポリシーとして表現する。
シミュレーションと実環境の両方において,我々の制御器が堅牢かつリアルタイムに制御性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2021-12-07T17:39:24Z) - Adaptive Optimal Trajectory Tracking Control Applied to a Large-Scale
Ball-on-Plate System [0.0]
ADPを用いた大規模ボール・オン・プレートシステムのための最適軌道追従制御器を提案する。
提案手法では,セットポイントトラッキングの代わりに参照軌道を近似し,一定のオフセット項を自動的に補償することができる。
実験の結果, このトラッキング機構は, セットポイントコントローラに比べて制御コストを大幅に削減することがわかった。
論文 参考訳(メタデータ) (2020-10-26T11:22:03Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。