論文の概要: Reference-Free Formula Drift with Reinforcement Learning: From Driving Data to Tire Energy-Inspired, Real-World Policies
- arxiv url: http://arxiv.org/abs/2410.20990v1
- Date: Mon, 28 Oct 2024 13:10:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:20:17.727520
- Title: Reference-Free Formula Drift with Reinforcement Learning: From Driving Data to Tire Energy-Inspired, Real-World Policies
- Title(参考訳): 強化学習を伴う参照フリーフォーミュラドリフト:運転データからタイヤエネルギーに着想を得た実世界政策へ
- Authors: Franck Djeumou, Michael Thompson, Makoto Suminaka, John Subosits,
- Abstract要約: リアルタイムドリフト戦略は、高価な軌道最適化を回避しながら、必要な場所に車を配置した。
本研究では,タイヤエネルギー吸収の概念に基づく強化学習エージェントを設計する。
トヨタ GR Supra と Lexus LC 500 の実験では、車体を63degのサイドスリップ角度まで安定して押しながら、追跡誤差を最大10cmに抑えながら、様々なウェイポイント構成でスムーズにドリフトできることが示されている。
- 参考スコア(独自算出の注目度): 1.3499500088995464
- License:
- Abstract: The skill to drift a car--i.e., operate in a state of controlled oversteer like professional drivers--could give future autonomous cars maximum flexibility when they need to retain control in adverse conditions or avoid collisions. We investigate real-time drifting strategies that put the car where needed while bypassing expensive trajectory optimization. To this end, we design a reinforcement learning agent that builds on the concept of tire energy absorption to autonomously drift through changing and complex waypoint configurations while safely staying within track bounds. We achieve zero-shot deployment on the car by training the agent in a simulation environment built on top of a neural stochastic differential equation vehicle model learned from pre-collected driving data. Experiments on a Toyota GR Supra and Lexus LC 500 show that the agent is capable of drifting smoothly through varying waypoint configurations with tracking error as low as 10 cm while stably pushing the vehicles to sideslip angles of up to 63{\deg}.
- Abstract(参考訳): 自動車をドリフトする技術、すなわちプロのドライバーのようなコントロールされたオーバーステア状態で運転する技術は、将来の自動運転車に、悪条件下での制御を維持したり、衝突を避けるために最大限の柔軟性を与える。
本研究では,高額な軌道最適化を回避しつつ,自動車を必要な場所に配置するリアルタイムドリフト戦略について検討する。
そこで我々は,タイヤのエネルギー吸収の概念に基づく強化学習エージェントの設計を行った。
我々は、事前に収集した運転データから学習した神経確率微分方程式車両モデルの上に構築されたシミュレーション環境において、エージェントを訓練することにより、車載のゼロショット展開を実現する。
トヨタ GR Supra と Lexus LC 500 の実験では、追跡誤差を10cmまで抑えながら、63{\deg {\displaystyle 63{\deg} のサイドスリップ角度まで安定して押しながら、様々な方向設定でスムーズにドリフトできることが示されている。
関連論文リスト
- WROOM: An Autonomous Driving Approach for Off-Road Navigation [17.74237088460657]
オフロード環境における自動運転車のためのエンドツーエンド強化学習システム(RL)を設計する。
ルールベースのコントローラを模倣してエージェントを温め、PPO(Proximal Policy Optimization)を利用してポリシーを改善する。
オフロード走行シナリオを再現する新しいシミュレーション環境を提案し,本提案手法を実車に展開する。
論文 参考訳(メタデータ) (2024-04-12T23:55:59Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Comprehensive Training and Evaluation on Deep Reinforcement Learning for
Automated Driving in Various Simulated Driving Maneuvers [0.4241054493737716]
本研究では、DQN(Deep Q-networks)とTRPO(Trust Region Policy Optimization)の2つのDRLアルゴリズムの実装、評価、比較を行う。
設計されたComplexRoads環境で訓練されたモデルは、他の運転操作にうまく適応でき、全体的な性能が期待できる。
論文 参考訳(メタデータ) (2023-06-20T11:41:01Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Motion Planning and Control for Multi Vehicle Autonomous Racing at High
Speeds [100.61456258283245]
本稿では,自律走行のための多層移動計画と制御アーキテクチャを提案する。
提案手法はダララのAV-21レースカーに適用され、楕円形のレーストラックで25$m/s2$まで加速試験された。
論文 参考訳(メタデータ) (2022-07-22T15:16:54Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Indy Autonomous Challenge -- Autonomous Race Cars at the Handling Limits [81.22616193933021]
TUM Auton-omous Motorsportsは2021年10月、インディ・オートマチック・チャレンジに参加する。
インディアナポリス・モーター・スピードウェイのダララAV-21レースカー10台のうち1台を走らせることで、自動運転のソフトウェアスタックをベンチマークする。
これは、最も困難で稀な状況をマスターできる自律走行アルゴリズムを開発するための理想的な試験場である。
論文 参考訳(メタデータ) (2022-02-08T11:55:05Z) - Autonomous Overtaking in Gran Turismo Sport Using Curriculum
Reinforcement Learning [39.757652701917166]
本研究では,自律オーバーテイク問題に対する新たな学習手法を提案する。
カーレースシミュレーターであるGran Turismo Sportによるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-26T18:06:50Z) - BayesRace: Learning to race autonomously using prior experience [20.64931380046805]
本稿では,自律走行のためのモデルベース計画制御フレームワークを提案する。
本手法は,車載センサ計測から学習することで,シミュレーションベースコントローラ設計によるギャップを軽減する。
論文 参考訳(メタデータ) (2020-05-10T19:15:06Z) - High-speed Autonomous Drifting with Deep Reinforcement Learning [15.766089739894207]
明示的な運動方程式を伴わない頑健なドリフト制御器を提案する。
私たちのコントローラーは、車両をさまざまな鋭い角を素早く、安定して、目に見えない地図に流すことができる。
論文 参考訳(メタデータ) (2020-01-06T03:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。