論文の概要: From Words to Collisions: LLM-Guided Evaluation and Adversarial Generation of Safety-Critical Driving Scenarios
- arxiv url: http://arxiv.org/abs/2502.02145v3
- Date: Wed, 21 May 2025 07:47:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:57.403843
- Title: From Words to Collisions: LLM-Guided Evaluation and Adversarial Generation of Safety-Critical Driving Scenarios
- Title(参考訳): 言葉から衝突へ:LLM指導による安全批判運転シナリオの評価と対立生成
- Authors: Yuan Gao, Mattia Piccinini, Korbinian Moller, Amr Alanwar, Johannes Betz,
- Abstract要約: 大規模言語モデル(LLM)と構造化シナリオ解析と迅速なエンジニアリングは、安全クリティカルな運転シナリオを生成するために使用される。
2次元シミュレーションフレームワークと複数の事前学習LDMを用いて,本手法の有効性を検証した。
ドメインインフォームドプロンプト技術を備えたLLMは、安全クリティカルな運転シナリオを効果的に評価し、生成することができると結論付けている。
- 参考スコア(独自算出の注目度): 6.681744368557208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring the safety of autonomous vehicles requires virtual scenario-based testing, which depends on the robust evaluation and generation of safety-critical scenarios. So far, researchers have used scenario-based testing frameworks that rely heavily on handcrafted scenarios as safety metrics. To reduce the effort of human interpretation and overcome the limited scalability of these approaches, we combine Large Language Models (LLMs) with structured scenario parsing and prompt engineering to automatically evaluate and generate safety-critical driving scenarios. We introduce Cartesian and Ego-centric prompt strategies for scenario evaluation, and an adversarial generation module that modifies trajectories of risk-inducing vehicles (ego-attackers) to create critical scenarios. We validate our approach using a 2D simulation framework and multiple pre-trained LLMs. The results show that the evaluation module effectively detects collision scenarios and infers scenario safety. Meanwhile, the new generation module identifies high-risk agents and synthesizes realistic, safety-critical scenarios. We conclude that an LLM equipped with domain-informed prompting techniques can effectively evaluate and generate safety-critical driving scenarios, reducing dependence on handcrafted metrics. We release our open-source code and scenarios at: https://github.com/TUM-AVS/From-Words-to-Collisions.
- Abstract(参考訳): 自動運転車の安全性を保証するには、安全クリティカルなシナリオの堅牢な評価と生成に依存する、仮想シナリオベースのテストが必要である。
これまで研究者は、手作りのシナリオを安全基準として大きく依存するシナリオベースのテストフレームワークを使用してきた。
人間の解釈の労力を減らし、これらのアプローチの限られたスケーラビリティを克服するため、大規模言語モデル(LLM)と構造化シナリオ解析を組み合わせ、安全クリティカルな運転シナリオを自動評価し、生成するようにエンジニアリングを促す。
本稿では,リスク誘導車(エゴ攻撃機)の軌道を改良し,重要なシナリオを創出する逆生成モジュールについて,シナリオ評価のためのCartesianおよびEgo中心の即時戦略を紹介する。
2次元シミュレーションフレームワークと複数の事前学習LDMを用いて,本手法の有効性を検証した。
その結果, 評価モジュールは衝突シナリオを効果的に検出し, シナリオの安全性を推定できることがわかった。
一方、新世代のモジュールはリスクの高いエージェントを識別し、現実的で安全クリティカルなシナリオを合成する。
ドメインインフォームドプロンプト技術を搭載したLLMは、安全クリティカルな運転シナリオを効果的に評価し、生成し、手作りのメトリクスへの依存を減らすことができると結論付けている。
https://github.com/TUM-AVS/From-Words-to-Collisions。
関連論文リスト
- LLM-Safety Evaluations Lack Robustness [58.334290876531036]
我々は、大規模言語モデルに対する現在の安全アライメント研究は、多くのノイズ源によって妨げられていると論じる。
本研究では,将来の攻撃・防衛用紙の評価において,ノイズやバイアスを低減させる一連のガイドラインを提案する。
論文 参考訳(メタデータ) (2025-03-04T12:55:07Z) - TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [50.86790793565535]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己注意機構はDRLエージェントの探索とこれらの戦略を融合させ、政策の収束を加速し、様々な運転条件をまたいだ堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - Realistic Corner Case Generation for Autonomous Vehicles with Multimodal Large Language Model [10.741225574706]
AutoScenarioは、現実的なコーナーケース生成のためのフレームワークである。
複数の情報源からの安全クリティカルな現実世界データをテキスト表現に変換する。
シミュレーション・オブ・アーバンモビリティ(SUMO)とCARLAシミュレータのツールを統合している。
論文 参考訳(メタデータ) (2024-11-29T20:23:28Z) - Generating Out-Of-Distribution Scenarios Using Language Models [58.47597351184034]
大規模言語モデル(LLM)は自動運転において有望であることを示している。
本稿では,多様なOF-Distribution(OOD)駆動シナリオを生成するためのフレームワークを提案する。
我々は、広範囲なシミュレーションを通じてフレームワークを評価し、新しい"OOD-ness"メトリクスを導入する。
論文 参考訳(メタデータ) (2024-11-25T16:38:17Z) - Multimodal Large Language Model Driven Scenario Testing for Autonomous Vehicles [6.836108615628114]
我々はシミュレーション環境で現実的で多様なシナリオを生成するフレームワークであるOmniTesterを提案する。
実験では,3種類の難解かつ複雑なシナリオを生成する上で,我々のアプローチの可制御性とリアリズムを実証した。
論文 参考訳(メタデータ) (2024-09-10T12:12:09Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Generating and Characterizing Scenarios for Safety Testing of Autonomous
Vehicles [86.9067793493874]
最先端運転シミュレータを用いて,テストシナリオを特徴付け,生成するための効率的なメカニズムを提案する。
次世代シミュレーション(NGSIM)プロジェクトにおける実運転データの特徴付けに本手法を用いる。
事故回避の複雑さに基づいてメトリクスを定義してシナリオをランク付けし、事故発生の可能性を最小限に抑えるための洞察を提供します。
論文 参考訳(メタデータ) (2021-03-12T17:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。