論文の概要: CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening
- arxiv url: http://arxiv.org/abs/2411.16996v1
- Date: Tue, 26 Nov 2024 00:00:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:30:50.083336
- Title: CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening
- Title(参考訳): CRASH: 安全硬化のための強化学習型逆境シナリオ
- Authors: Amar Kulkarni, Shangtong Zhang, Madhur Behl,
- Abstract要約: 本稿では, CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardeningを紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘導するために、AVシミュレータ内のNon Player Character(NPC)エージェントを制御することができる。
我々はまた、敵エージェントに対する改善シナリオをシミュレートすることで、運動プランナーを反復的に洗練する安全硬化という新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 16.305837225117607
- License:
- Abstract: Ensuring the safety of autonomous vehicles (AVs) requires identifying rare but critical failure cases that on-road testing alone cannot discover. High-fidelity simulations provide a scalable alternative, but automatically generating realistic and diverse traffic scenarios that can effectively stress test AV motion planners remains a key challenge. This paper introduces CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardening - an adversarial deep reinforcement learning framework to address this issue. First CRASH can control adversarial Non Player Character (NPC) agents in an AV simulator to automatically induce collisions with the Ego vehicle, falsifying its motion planner. We also propose a novel approach, that we term safety hardening, which iteratively refines the motion planner by simulating improvement scenarios against adversarial agents, leveraging the failure cases to strengthen the AV stack. CRASH is evaluated on a simplified two-lane highway scenario, demonstrating its ability to falsify both rule-based and learning-based planners with collision rates exceeding 90%. Additionally, safety hardening reduces the Ego vehicle's collision rate by 26%. While preliminary, these results highlight RL-based safety hardening as a promising approach for scenario-driven simulation testing for autonomous vehicles.
- Abstract(参考訳): 自動運転車(AV)の安全性を確保するには、オンロードテストだけでは発見できない稀だが重要な障害ケースを特定する必要がある。
高忠実度シミュレーションはスケーラブルな代替手段を提供するが、現実的で多様な交通シナリオを自動生成し、AVモーションプランナを効果的にストレスすることが可能になる。
本稿では,CRASH(Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardening)を紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘発し、その動作プランナを偽装するために、AVシミュレータ内の敵非プレイヤーキャラクタ(NPC)エージェントを制御することができる。
また,AVスタックの強化に失敗事例を活用することで,敵エージェントに対する改善シナリオをシミュレートすることで,運動プランナを反復的に洗練する安全硬化という新しい手法を提案する。
CRASHは簡易な2車線高速道路のシナリオで評価され、ルールベースと学習ベースのプランナーの両方を90%以上の衝突率でファルシファイリングする能力を示している。
さらに、安全強化により、エゴ車の衝突速度は26%減少する。
これらの結果は、自動運転車のシナリオ駆動シミュレーションテストにおいて、RLベースの安全性強化が有望なアプローチであることを示している。
関連論文リスト
- Foundation Models for Rapid Autonomy Validation [4.417336418010182]
重要な課題は、自動運転車が遭遇するあらゆる種類の運転シナリオでテストする必要があることだ。
本研究では,運転シナリオを再構築するための行動基礎モデル,特にマスク付きオートエンコーダ(MAE)の使用を提案する。
論文 参考訳(メタデータ) (2024-10-22T15:32:43Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - PAFOT: A Position-Based Approach for Finding Optimal Tests of Autonomous Vehicles [4.243926243206826]
本稿では位置に基づくアプローチテストフレームワークであるPAFOTを提案する。
PAFOTは、自動走行システムの安全違反を明らかにするために、敵の運転シナリオを生成する。
PAFOTはADSをクラッシュさせる安全クリティカルなシナリオを効果的に生成し、短いシミュレーション時間で衝突を見つけることができることを示す実験である。
論文 参考訳(メタデータ) (2024-05-06T10:04:40Z) - A novel framework for adaptive stress testing of autonomous vehicles in
highways [3.2112502548606825]
高速道路交通のシナリオにおいて,安全上の懸念を生じさせるようなコーナーケースを探索する新しい枠組みを提案する。
衝突確率推定に基づいて衝突シナリオを識別する際のASTを導出するDRLの新しい報奨関数を開発した。
提案するフレームワークは,より現実的なトラフィックシナリオの作成を可能にする,新たな駆動モデルとさらに統合されている。
論文 参考訳(メタデータ) (2024-02-19T04:02:40Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Don't Get Yourself into Trouble! Risk-aware Decision-Making for
Autonomous Vehicles [4.94950858749529]
1)望ましくない結果の確率と、2)望ましくない結果がどの程度望ましくないかを見積もる(損失)。
我々は、高レベルリスクベースの経路計画と強化学習に基づく低レベル制御を統合する、自動運転車のリスクベースの意思決定フレームワークを開発した。
この作業は、自動運転車がいつの日か回避し、危険な状況に対処することによって、安全性を向上させることができる。
論文 参考訳(メタデータ) (2021-06-08T18:24:02Z) - An NCAP-like Safety Indicator for Self-Driving Cars [2.741266294612776]
本稿では,自動運転車の安全性を評価するメカニズムを提案する。
車両が敵と衝突することを避けるシナリオにおいて、車両の安全性を評価する。
セーフカミカゼ距離(Safe-Kamikaze Distance)と呼ばれる安全対策は、安全な敵の軌道と安全な軌道に近いカミカゼ軌道との平均的な類似性を計算する。
論文 参考訳(メタデータ) (2021-04-02T02:39:53Z) - AdvSim: Generating Safety-Critical Scenarios for Self-Driving Vehicles [76.46575807165729]
我々は,任意のLiDARベースの自律システムに対して,安全クリティカルなシナリオを生成するための,敵対的フレームワークであるAdvSimを提案する。
センサデータから直接シミュレートすることにより、完全な自律スタックに対して安全クリティカルな敵シナリオを得る。
論文 参考訳(メタデータ) (2021-01-16T23:23:12Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。