論文の概要: Learning from Risk: LLM-Guided Generation of Safety-Critical Scenarios with Prior Knowledge
- arxiv url: http://arxiv.org/abs/2511.20726v1
- Date: Tue, 25 Nov 2025 09:53:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.793474
- Title: Learning from Risk: LLM-Guided Generation of Safety-Critical Scenarios with Prior Knowledge
- Title(参考訳): リスクから学ぶ: 事前知識によるLLM指導型安全批判シナリオの生成
- Authors: Yuhang Wang, Heye Huang, Zhenhua Xu, Kailai Sun, Baoshen Guo, Jinhua Zhao,
- Abstract要約: 本稿では,条件付き変分オートエンコーダ(CVAE)と大規模言語モデル(LLM)を統合した高忠実なシナリオ生成フレームワークを提案する。
我々のフレームワークは、リスクの高いイベントやロングテールイベントのカバレッジを大幅に向上させ、シミュレートされたトラフィック分布と実世界のトラフィック分布の一貫性を改善し、既存のルールやデータ駆動方式よりもはるかに難しいインタラクションに自律運転システムを公開します。
- 参考スコア(独自算出の注目度): 25.50999678115561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving faces critical challenges in rare long-tail events and complex multi-agent interactions, which are scarce in real-world data yet essential for robust safety validation. This paper presents a high-fidelity scenario generation framework that integrates a conditional variational autoencoder (CVAE) with a large language model (LLM). The CVAE encodes historical trajectories and map information from large-scale naturalistic datasets to learn latent traffic structures, enabling the generation of physically consistent base scenarios. Building on this, the LLM acts as an adversarial reasoning engine, parsing unstructured scene descriptions into domain-specific loss functions and dynamically guiding scenario generation across varying risk levels. This knowledge-driven optimization balances realism with controllability, ensuring that generated scenarios remain both plausible and risk-sensitive. Extensive experiments in CARLA and SMARTS demonstrate that our framework substantially increases the coverage of high-risk and long-tail events, improves consistency between simulated and real-world traffic distributions, and exposes autonomous driving systems to interactions that are significantly more challenging than those produced by existing rule- or data-driven methods. These results establish a new pathway for safety validation, enabling principled stress-testing of autonomous systems under rare but consequential events.
- Abstract(参考訳): 自律運転は、希少なロングテールイベントや複雑なマルチエージェントインタラクションにおいて重要な課題に直面している。
本稿では,条件付き変分オートエンコーダ(CVAE)と大規模言語モデル(LLM)を統合した高忠実なシナリオ生成フレームワークを提案する。
CVAEは歴史的軌跡をエンコードし、大規模自然主義データセットから情報をマップして潜在トラフィック構造を学習し、物理的に一貫した基盤シナリオを生成する。
これに基づいて、LLMは逆推論エンジンとして機能し、非構造的なシーン記述をドメイン固有の損失関数に解析し、様々なリスクレベルのシナリオ生成を動的に導く。
この知識駆動の最適化は、現実主義と制御可能性のバランスを保ち、生成したシナリオが妥当かつリスクに敏感であることを保証する。
CARLAとSMARTSの大規模な実験により、当社のフレームワークは、リスクの高いイベントやロングテールイベントのカバレッジを大幅に向上し、シミュレートされたトラフィック分布と実世界のトラフィック分布の一貫性を改善し、既存のルールやデータ駆動方式よりもはるかに難しいインタラクションに自律運転システムを公開することが実証された。
これらの結果は安全検証のための新しい経路を確立し、希少かつ連続的なイベント下で自律システムのストレステストを可能にする。
関連論文リスト
- AD-R1: Closed-Loop Reinforcement Learning for End-to-End Autonomous Driving with Impartial World Models [75.214287449744]
我々は,Impartial World Modelを中心に構築されたポストトレーニング政策改善のためのフレームワークを紹介する。
私たちの主な貢献は、このモデルに危険について正直であることを教えることです。
大規模な実験を通じて、我々のモデルは失敗を予測する上で、ベースラインを著しく上回っていることを実証する。
論文 参考訳(メタデータ) (2025-11-25T13:57:24Z) - A Trajectory Generator for High-Density Traffic and Diverse Agent-Interaction Scenarios [37.38654549322757]
本稿では,シナリオ密度を同時に向上し,行動多様性を向上する新しい軌道生成フレームワークを提案する。
本手法は,動作リアリズムとシナリオレベルの安全性を保ちながら,エージェント密度と行動の多様性を著しく改善する。
我々の合成データは下流軌道予測モデルにも有効であり、高密度シナリオに挑戦する際の性能を向上させる。
論文 参考訳(メタデータ) (2025-10-03T00:12:18Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - RADE: Learning Risk-Adjustable Driving Environment via Multi-Agent Conditional Diffusion [17.46462636610847]
リスク・ドライビング・環境(RADE)は、統計的に現実的でリスク調整可能な交通シーンを生成するシミュレーション・フレームワークである。
RADEはデータから直接リスク条件の行動を学び、コントロール可能なリスクレベルと自然主義的なマルチエージェントインタラクションを保存する。
RADEを実世界のrounDデータセットで検証し、様々なリスクレベルにわたって統計的リアリズムを保存することを示した。
論文 参考訳(メタデータ) (2025-05-06T04:41:20Z) - RiskNet: Interaction-Aware Risk Forecasting for Autonomous Driving in Long-Tail Scenarios [6.024186631622774]
RiskNetは自動運転車のリスク予測フレームワークである。
決定論的リスクモデリングと確率論的行動予測を統合し、包括的リスク評価を行う。
リアルタイムでシナリオ適応型のリスク予測をサポートし、不確実な運転環境全体にわたって強力な一般化を示す。
論文 参考訳(メタデータ) (2025-04-22T02:36:54Z) - SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
我々は、構造化されていない知識と構造化されていない知識の両方を取り入れることで、MLLMベースの自動運転を強化するフレームワークであるSafeAutoを提案する。
安全知識を明示的に統合するため,交通ルールを一階述語論理に変換する推論コンポーネントを開発した。
我々のマルチモーダル検索・拡張生成モデルは、過去の運転経験から学ぶために、ビデオ、制御信号、環境特性を活用する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Safety-aware Causal Representation for Trustworthy Offline Reinforcement
Learning in Autonomous Driving [33.672722472758636]
オフライン強化学習(RL)アプローチは、オフラインデータセットからのシーケンシャルな意思決定問題に対処する上で、顕著な効果を示す。
一般化可能なエンドツーエンド駆動ポリシの学習を容易にするために,saFety-aware strUctured Scenario representation (Fusion)を導入した。
様々な運転シナリオにおける実証的な証拠は、フュージョンが自律運転エージェントの安全性と一般化性を著しく向上させることを証明している。
論文 参考訳(メタデータ) (2023-10-31T18:21:24Z) - CausalAF: Causal Autoregressive Flow for Safety-Critical Driving
Scenario Generation [34.45216283597149]
フローベース生成フレームワークCausal Autoregressive Flow(CausalAF)を提案する。
CausalAFは生成モデルに対して、生成されたオブジェクト間の因果関係を発見し、追跡することを奨励する。
生成したシナリオを追加のトレーニングサンプルとして使用することで、自律運転アルゴリズムの堅牢性を実証的に改善することを示す。
論文 参考訳(メタデータ) (2021-10-26T18:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。