論文の概要: Learning-based Autonomous Oversteer Control and Collision Avoidance
- arxiv url: http://arxiv.org/abs/2505.15275v1
- Date: Wed, 21 May 2025 08:53:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.399561
- Title: Learning-based Autonomous Oversteer Control and Collision Avoidance
- Title(参考訳): 学習に基づく自律オーバーステア制御と衝突回避
- Authors: Seokjun Lee, Seung-Hyun Kong,
- Abstract要約: オーバーステア(Oversteer)は、車両の後部タイヤが牽引力を失い、意図しない過剰なヨーを誘導し、重大な安全上の課題を引き起こす。
本稿では,オーバーステア制御と衝突回避を同時に行う新しいエンド・ツー・エンド(E2E)自動運転手法を提案する。
本稿では,Q-Compared Soft Actor-Critic (QC-SAC)を提案する。
- 参考スコア(独自算出の注目度): 5.523708201910051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Oversteer, wherein a vehicle's rear tires lose traction and induce unintentional excessive yaw, poses critical safety challenges. Failing to control oversteer often leads to severe traffic accidents. Although recent autonomous driving efforts have attempted to handle oversteer through stabilizing maneuvers, the majority rely on expert-defined trajectories or assume obstacle-free environments, limiting real-world applicability. This paper introduces a novel end-to-end (E2E) autonomous driving approach that tackles oversteer control and collision avoidance simultaneously. Existing E2E techniques, including Imitation Learning (IL), Reinforcement Learning (RL), and Hybrid Learning (HL), generally require near-optimal demonstrations or extensive experience. Yet even skilled human drivers struggle to provide perfect demonstrations under oversteer, and high transition variance hinders accumulating sufficient data. Hence, we present Q-Compared Soft Actor-Critic (QC-SAC), a new HL algorithm that effectively learns from suboptimal demonstration data and adapts rapidly to new conditions. To evaluate QC-SAC, we introduce a benchmark inspired by real-world driver training: a vehicle encounters sudden oversteer on a slippery surface and must avoid randomly placed obstacles ahead. Experimental results show QC-SAC attains near-optimal driving policies, significantly surpassing state-of-the-art IL, RL, and HL baselines. Our method demonstrates the world's first safe autonomous oversteer control with obstacle avoidance.
- Abstract(参考訳): オーバーステア(Oversteer)は、車両の後部タイヤが牽引力を失い、意図しない過剰なヨーを誘導し、重大な安全上の課題を引き起こす。
オーバーステアを制御できないと、しばしば交通事故が発生する。
最近の自動運転の取り組みは、操舵の安定化を通じてオーバーステアの処理を試みているが、大多数は専門家が定義した軌道に依存したり、障害物のない環境を前提としており、現実の応用性が制限されている。
本稿では,オーバーステア制御と衝突回避を同時に行う新しいエンド・ツー・エンド(E2E)自動運転手法を提案する。
既存のE2E技術であるImitation Learning (IL)、Reinforcement Learning (RL)、Hybrid Learning (HL)は、一般的にほぼ最適のデモンストレーションや広範な経験を必要とする。
しかし、熟練した人間のドライバーでさえ、オーバーステアの下で完璧なデモを行うのに苦労しており、ハイトランジションの分散は十分なデータを蓄積することを妨げる。
そこで我々は,Q-Compared Soft Actor-Critic (QC-SAC) というHLアルゴリズムを提案する。
QC-SACを評価するために、実世界のドライバートレーニングにインスパイアされたベンチマークを導入する: 車両が滑った表面で突然オーバーステアに遭遇し、ランダムに配置された障害物を避ける必要がある。
実験の結果,QC-SACは最先端のIL,RL,HLベースラインをはるかに上回り,ほぼ最適運転ポリシーを達成できた。
本手法は,障害物回避による世界初の安全自動オーバーステア制御を実証する。
関連論文リスト
- Reference-Free Formula Drift with Reinforcement Learning: From Driving Data to Tire Energy-Inspired, Real-World Policies [1.3499500088995464]
リアルタイムドリフト戦略は、高価な軌道最適化を回避しながら、必要な場所に車を配置した。
本研究では,タイヤエネルギー吸収の概念に基づく強化学習エージェントを設計する。
トヨタ GR Supra と Lexus LC 500 の実験では、車体を63degのサイドスリップ角度まで安定して押しながら、追跡誤差を最大10cmに抑えながら、様々なウェイポイント構成でスムーズにドリフトできることが示されている。
論文 参考訳(メタデータ) (2024-10-28T13:10:15Z) - SECRM-2D: RL-Based Efficient and Comfortable Route-Following Autonomous Driving with Analytic Safety Guarantees [5.156059061769101]
SECRM-2Dは、効率と快適性の最適化と固定経路に従うRL自律運転制御装置である。
シミュレーションテストシナリオにおいて,SECRM-2Dをいくつかの学習ベースラインおよび非学習ベースラインに対して評価する。
論文 参考訳(メタデータ) (2024-07-23T21:54:39Z) - CIMRL: Combining IMitation and Reinforcement Learning for Safe Autonomous Driving [45.05135725542318]
CIMRL(imitation and Reinforcement Learning)アプローチは、模倣動作の先行と安全性の制約を活用することで、シミュレーションにおける運転ポリシーのトレーニングを可能にする。
RLと模倣を組み合わせることで, クローズドループシミュレーションと実世界の運転ベンチマークにおいて, 最先端の結果が得られたことを実証する。
論文 参考訳(メタデータ) (2024-06-13T07:31:29Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Comprehensive Training and Evaluation on Deep Reinforcement Learning for
Automated Driving in Various Simulated Driving Maneuvers [0.4241054493737716]
本研究では、DQN(Deep Q-networks)とTRPO(Trust Region Policy Optimization)の2つのDRLアルゴリズムの実装、評価、比較を行う。
設計されたComplexRoads環境で訓練されたモデルは、他の運転操作にうまく適応でき、全体的な性能が期待できる。
論文 参考訳(メタデータ) (2023-06-20T11:41:01Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Autonomous Overtaking in Gran Turismo Sport Using Curriculum
Reinforcement Learning [39.757652701917166]
本研究では,自律オーバーテイク問題に対する新たな学習手法を提案する。
カーレースシミュレーターであるGran Turismo Sportによるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-26T18:06:50Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。