論文の概要: Controllable risk scenario generation from human crash data for autonomous vehicle testing
- arxiv url: http://arxiv.org/abs/2512.07874v1
- Date: Thu, 27 Nov 2025 04:53:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 04:16:52.536047
- Title: Controllable risk scenario generation from human crash data for autonomous vehicle testing
- Title(参考訳): 自動運転車テストのための人体衝突データからの制御可能なリスクシナリオ生成
- Authors: Qiujing Lu, Xuanhan Wang, Runze Yuan, Wei Lu, Xinyi Gong, Shuo Feng,
- Abstract要約: 制御可能なリスクエージェント生成(CRAG)は、支配的な名目的行動と稀な安全クリティカルな行動のモデリングを統合するために設計されたフレームワークである。
CRAGは、正常およびリスク関連挙動を歪め、限られたクラッシュデータの効率的な利用を可能にする構造付き潜在空間を構築する。
- 参考スコア(独自算出の注目度): 13.3074428571403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring the safety of autonomous vehicles (AV) requires rigorous testing under both everyday driving and rare, safety-critical conditions. A key challenge lies in simulating environment agents, including background vehicles (BVs) and vulnerable road users (VRUs), that behave realistically in nominal traffic while also exhibiting risk-prone behaviors consistent with real-world accidents. We introduce Controllable Risk Agent Generation (CRAG), a framework designed to unify the modeling of dominant nominal behaviors and rare safety-critical behaviors. CRAG constructs a structured latent space that disentangles normal and risk-related behaviors, enabling efficient use of limited crash data. By combining risk-aware latent representations with optimization-based mode-transition mechanisms, the framework allows agents to shift smoothly and plausibly from safe to risk states over extended horizons, while maintaining high fidelity in both regimes. Extensive experiments show that CRAG improves diversity compared to existing baselines, while also enabling controllable generation of risk scenarios for targeted and efficient evaluation of AV robustness.
- Abstract(参考訳): 自動運転車(AV)の安全性を確保するには、日常運転と稀で安全に重要な条件の両方の下で厳格なテストが必要である。
重要な課題は、背景車両(BV)や脆弱な道路利用者(VRU)を含む環境エージェントをシミュレートすることである。
制御可能なリスクエージェント生成(CRAG, Controllable Risk Agent Generation)は,支配的な名目的行動と稀な安全クリティカルな行動のモデリングを統一するフレームワークである。
CRAGは、正常およびリスク関連挙動を歪め、限られたクラッシュデータの効率的な利用を可能にする構造付き潜在空間を構築する。
このフレームワークは、リスクを意識した潜伏表現と最適化に基づくモード遷移機構を組み合わせることで、双方の条件下で高い忠実性を維持しながら、エージェントがスムーズかつ確実に水平方向に安全な状態からリスク状態へ移行できる。
広範囲にわたる実験の結果,CRAGは既存のベースラインに比べて多様性を向上するとともに,AVロバストネスの標的かつ効率的な評価のためのリスクシナリオを制御可能な生成を可能にした。
関連論文リスト
- Learning from Risk: LLM-Guided Generation of Safety-Critical Scenarios with Prior Knowledge [25.50999678115561]
本稿では,条件付き変分オートエンコーダ(CVAE)と大規模言語モデル(LLM)を統合した高忠実なシナリオ生成フレームワークを提案する。
我々のフレームワークは、リスクの高いイベントやロングテールイベントのカバレッジを大幅に向上させ、シミュレートされたトラフィック分布と実世界のトラフィック分布の一貫性を改善し、既存のルールやデータ駆動方式よりもはるかに難しいインタラクションに自律運転システムを公開します。
論文 参考訳(メタデータ) (2025-11-25T09:53:09Z) - How Much Is Too Much? Adaptive, Context-Aware Risk Detection in Naturalistic Driving [0.6299766708197883]
ラベルやモデルを時間とともに、ドライバ間で適応する統合されたコンテキスト対応フレームワークを提案する。
このフレームワークは、速度重み付けされたヘッドウェイと厳しい運転イベントの2つの安全指標と、ランダムフォレスト、XGBoost、ディープニューラルネットワーク(DNN)の3つのモデルを用いてテストされている。
全体として、このフレームワークは、リアルタイムの安全フィードバックを強化し、インテリジェントな交通システムにおけるドライバー中心の介入をサポートする、適応的でコンテキスト対応のリスク検出を約束している。
論文 参考訳(メタデータ) (2025-07-26T16:24:25Z) - RADE: Learning Risk-Adjustable Driving Environment via Multi-Agent Conditional Diffusion [17.46462636610847]
リスク・ドライビング・環境(RADE)は、統計的に現実的でリスク調整可能な交通シーンを生成するシミュレーション・フレームワークである。
RADEはデータから直接リスク条件の行動を学び、コントロール可能なリスクレベルと自然主義的なマルチエージェントインタラクションを保存する。
RADEを実世界のrounDデータセットで検証し、様々なリスクレベルにわたって統計的リアリズムを保存することを示した。
論文 参考訳(メタデータ) (2025-05-06T04:41:20Z) - CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening [16.305837225117607]
本稿では, CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardeningを紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘導するために、AVシミュレータ内のNon Player Character(NPC)エージェントを制御することができる。
我々はまた、敵エージェントに対する改善シナリオをシミュレートすることで、運動プランナーを反復的に洗練する安全硬化という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-26T00:00:27Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Safety-aware Causal Representation for Trustworthy Offline Reinforcement
Learning in Autonomous Driving [33.672722472758636]
オフライン強化学習(RL)アプローチは、オフラインデータセットからのシーケンシャルな意思決定問題に対処する上で、顕著な効果を示す。
一般化可能なエンドツーエンド駆動ポリシの学習を容易にするために,saFety-aware strUctured Scenario representation (Fusion)を導入した。
様々な運転シナリオにおける実証的な証拠は、フュージョンが自律運転エージェントの安全性と一般化性を著しく向上させることを証明している。
論文 参考訳(メタデータ) (2023-10-31T18:21:24Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。