論文の概要: CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening
- arxiv url: http://arxiv.org/abs/2411.16996v1
- Date: Tue, 26 Nov 2024 00:00:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:30:50.083336
- Title: CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening
- Title(参考訳): CRASH: 安全硬化のための強化学習型逆境シナリオ
- Authors: Amar Kulkarni, Shangtong Zhang, Madhur Behl,
- Abstract要約: 本稿では, CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardeningを紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘導するために、AVシミュレータ内のNon Player Character(NPC)エージェントを制御することができる。
我々はまた、敵エージェントに対する改善シナリオをシミュレートすることで、運動プランナーを反復的に洗練する安全硬化という新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 16.305837225117607
- License:
- Abstract: Ensuring the safety of autonomous vehicles (AVs) requires identifying rare but critical failure cases that on-road testing alone cannot discover. High-fidelity simulations provide a scalable alternative, but automatically generating realistic and diverse traffic scenarios that can effectively stress test AV motion planners remains a key challenge. This paper introduces CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardening - an adversarial deep reinforcement learning framework to address this issue. First CRASH can control adversarial Non Player Character (NPC) agents in an AV simulator to automatically induce collisions with the Ego vehicle, falsifying its motion planner. We also propose a novel approach, that we term safety hardening, which iteratively refines the motion planner by simulating improvement scenarios against adversarial agents, leveraging the failure cases to strengthen the AV stack. CRASH is evaluated on a simplified two-lane highway scenario, demonstrating its ability to falsify both rule-based and learning-based planners with collision rates exceeding 90%. Additionally, safety hardening reduces the Ego vehicle's collision rate by 26%. While preliminary, these results highlight RL-based safety hardening as a promising approach for scenario-driven simulation testing for autonomous vehicles.
- Abstract(参考訳): 自動運転車(AV)の安全性を確保するには、オンロードテストだけでは発見できない稀だが重要な障害ケースを特定する必要がある。
高忠実度シミュレーションはスケーラブルな代替手段を提供するが、現実的で多様な交通シナリオを自動生成し、AVモーションプランナを効果的にストレスすることが可能になる。
本稿では,CRASH(Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardening)を紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘発し、その動作プランナを偽装するために、AVシミュレータ内の敵非プレイヤーキャラクタ(NPC)エージェントを制御することができる。
また,AVスタックの強化に失敗事例を活用することで,敵エージェントに対する改善シナリオをシミュレートすることで,運動プランナを反復的に洗練する安全硬化という新しい手法を提案する。
CRASHは簡易な2車線高速道路のシナリオで評価され、ルールベースと学習ベースのプランナーの両方を90%以上の衝突率でファルシファイリングする能力を示している。
さらに、安全強化により、エゴ車の衝突速度は26%減少する。
これらの結果は、自動運転車のシナリオ駆動シミュレーションテストにおいて、RLベースの安全性強化が有望なアプローチであることを示している。
関連論文リスト
- Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - Generating Critical Scenarios for Testing Automated Driving Systems [5.975915967339764]
AVASTRAは、自律運転システムをテストするための現実的な重要なシナリオを生成するための強化学習ベースのアプローチである。
その結果、AVASTRAは、30%から115%の衝突シナリオを発生させることで、最先端のアプローチを上回る能力を示している。
論文 参考訳(メタデータ) (2024-12-03T16:59:30Z) - Foundation Models for Rapid Autonomy Validation [4.417336418010182]
重要な課題は、自動運転車が遭遇するあらゆる種類の運転シナリオでテストする必要があることだ。
本研究では,運転シナリオを再構築するための行動基礎モデル,特にマスク付きオートエンコーダ(MAE)の使用を提案する。
論文 参考訳(メタデータ) (2024-10-22T15:32:43Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - PAFOT: A Position-Based Approach for Finding Optimal Tests of Autonomous Vehicles [4.243926243206826]
本稿では位置に基づくアプローチテストフレームワークであるPAFOTを提案する。
PAFOTは、自動走行システムの安全違反を明らかにするために、敵の運転シナリオを生成する。
PAFOTはADSをクラッシュさせる安全クリティカルなシナリオを効果的に生成し、短いシミュレーション時間で衝突を見つけることができることを示す実験である。
論文 参考訳(メタデータ) (2024-05-06T10:04:40Z) - A novel framework for adaptive stress testing of autonomous vehicles in
highways [3.2112502548606825]
高速道路交通のシナリオにおいて,安全上の懸念を生じさせるようなコーナーケースを探索する新しい枠組みを提案する。
衝突確率推定に基づいて衝突シナリオを識別する際のASTを導出するDRLの新しい報奨関数を開発した。
提案するフレームワークは,より現実的なトラフィックシナリオの作成を可能にする,新たな駆動モデルとさらに統合されている。
論文 参考訳(メタデータ) (2024-02-19T04:02:40Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - An NCAP-like Safety Indicator for Self-Driving Cars [2.741266294612776]
本稿では,自動運転車の安全性を評価するメカニズムを提案する。
車両が敵と衝突することを避けるシナリオにおいて、車両の安全性を評価する。
セーフカミカゼ距離(Safe-Kamikaze Distance)と呼ばれる安全対策は、安全な敵の軌道と安全な軌道に近いカミカゼ軌道との平均的な類似性を計算する。
論文 参考訳(メタデータ) (2021-04-02T02:39:53Z) - AdvSim: Generating Safety-Critical Scenarios for Self-Driving Vehicles [76.46575807165729]
我々は,任意のLiDARベースの自律システムに対して,安全クリティカルなシナリオを生成するための,敵対的フレームワークであるAdvSimを提案する。
センサデータから直接シミュレートすることにより、完全な自律スタックに対して安全クリティカルな敵シナリオを得る。
論文 参考訳(メタデータ) (2021-01-16T23:23:12Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。