論文の概要: Risk Scenario Generation for Autonomous Driving Systems based on Causal Bayesian Networks
- arxiv url: http://arxiv.org/abs/2405.16063v1
- Date: Sat, 25 May 2024 05:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 01:19:52.430544
- Title: Risk Scenario Generation for Autonomous Driving Systems based on Causal Bayesian Networks
- Title(参考訳): 因果ベイズネットワークに基づく自律走行システムのリスクシナリオ生成
- Authors: Jiangnan Zhao, Dehui Du, Xing Yu, Hang Li,
- Abstract要約: 自律運転システム(ADS)におけるシナリオ生成のためのCausal Bayesian Networks(CBN)の利用に向けた新しいパラダイムシフトを提案する。
CBNはメリーランドの事故データを用いて構築され、検証されており、自律運転行動に影響を与える無数の要因について深い洞察を提供する。
CARLAシミュレータを用いて,ADSのエンドツーエンドテストフレームワークを構築した。
- 参考スコア(独自算出の注目度): 4.172581773205466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advancements in Autonomous Driving Systems (ADS) have brought significant benefits, but also raised concerns regarding their safety. Virtual tests are common practices to ensure the safety of ADS because they are more efficient and safer compared to field operational tests. However, capturing the complex dynamics of real-world driving environments and effectively generating risk scenarios for testing is challenging. In this paper, we propose a novel paradigm shift towards utilizing Causal Bayesian Networks (CBN) for scenario generation in ADS. The CBN is built and validated using Maryland accident data, providing a deeper insight into the myriad factors influencing autonomous driving behaviors. Based on the constructed CBN, we propose an algorithm that significantly enhances the process of risk scenario generation, leading to more effective and safer ADS. An end-to-end testing framework for ADS is established utilizing the CARLA simulator. Through experiments, we successfully generated 89 high-risk scenarios from 5 seed scenarios, outperforming baseline methods in terms of time and iterations required.
- Abstract(参考訳): 自律運転システム(ADS)の進歩は大きな利益をもたらしたが、安全性に関する懸念も持ち上がっている。
仮想テストは、現場での運用テストよりも効率的で安全であるため、ADSの安全性を確保するための一般的なプラクティスである。
しかし、現実の運転環境の複雑なダイナミクスを捉え、テストのリスクシナリオを効果的に生成することは困難である。
本稿では,ADSにおけるシナリオ生成にCausal Bayesian Networks(CBN)を活用するためのパラダイムシフトを提案する。
CBNはメリーランドの事故データを用いて構築され、検証されており、自律運転に影響を及ぼす無数の要因について深い洞察を提供する。
構築したCBNに基づいて,リスクシナリオ生成のプロセスを大幅に改善し,より効果的で安全なADSを実現するアルゴリズムを提案する。
CARLAシミュレータを用いて,ADSのエンドツーエンドテストフレームワークを構築した。
実験を通じて、5つのシードシナリオから89のハイリスクシナリオを生成しました。
関連論文リスト
- Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - SimADFuzz: Simulation-Feedback Fuzz Testing for Autonomous Driving Systems [5.738863204900633]
SimADFuzzは、自律運転システムにおける違反を明らかにする高品質なシナリオを生成するように設計された、新しいフレームワークである。
SimADFuzzは、シナリオ選択を最適化するために、ADS違反の可能性を評価する違反予測モデルを採用している。
総合的な実験により、SimADFuzzは32以上のユニークな違反を識別することで最先端のファズーより優れていることが示された。
論文 参考訳(メタデータ) (2024-12-18T12:49:57Z) - Generating Critical Scenarios for Testing Automated Driving Systems [5.975915967339764]
AVASTRAは、自律運転システムをテストするための現実的な重要なシナリオを生成するための強化学習ベースのアプローチである。
その結果、AVASTRAは、30%から115%の衝突シナリオを発生させることで、最先端のアプローチを上回る能力を示している。
論文 参考訳(メタデータ) (2024-12-03T16:59:30Z) - Generating Out-Of-Distribution Scenarios Using Language Models [58.47597351184034]
大規模言語モデル(LLM)は自動運転において有望であることを示している。
本稿では,多様なOF-Distribution(OOD)駆動シナリオを生成するためのフレームワークを提案する。
我々は、広範囲なシミュレーションを通じてフレームワークを評価し、新しい"OOD-ness"メトリクスを導入する。
論文 参考訳(メタデータ) (2024-11-25T16:38:17Z) - LMM-enhanced Safety-Critical Scenario Generation for Autonomous Driving System Testing From Non-Accident Traffic Videos [22.638869562921133]
自律運転システムにとって、さまざまな安全クリティカルなテストシナリオを生成することが最重要である。
事故のない現実のシナリオの中には、ADSの誤動作を引き起こすだけでなく、ADS違反の発生にも活用できるものもある。
通常の交通シナリオからADSの安全違反を発見することが重要である。
論文 参考訳(メタデータ) (2024-06-16T09:05:56Z) - GOOSE: Goal-Conditioned Reinforcement Learning for Safety-Critical Scenario Generation [0.14999444543328289]
ゴール条件付きシナリオ生成(Goal-conditioned Scenario Generation、GOOSE)は、ゴール条件付き強化学習(RL)アプローチで、安全クリティカルなシナリオを自動的に生成する。
安全クリティカルな事象につながるシナリオを生成する上でのGOOSEの有効性を実証する。
論文 参考訳(メタデータ) (2024-06-06T08:59:08Z) - PAFOT: A Position-Based Approach for Finding Optimal Tests of Autonomous Vehicles [4.243926243206826]
本稿では位置に基づくアプローチテストフレームワークであるPAFOTを提案する。
PAFOTは、自動走行システムの安全違反を明らかにするために、敵の運転シナリオを生成する。
PAFOTはADSをクラッシュさせる安全クリティカルなシナリオを効果的に生成し、短いシミュレーション時間で衝突を見つけることができることを示す実験である。
論文 参考訳(メタデータ) (2024-05-06T10:04:40Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Generating and Characterizing Scenarios for Safety Testing of Autonomous
Vehicles [86.9067793493874]
最先端運転シミュレータを用いて,テストシナリオを特徴付け,生成するための効率的なメカニズムを提案する。
次世代シミュレーション(NGSIM)プロジェクトにおける実運転データの特徴付けに本手法を用いる。
事故回避の複雑さに基づいてメトリクスを定義してシナリオをランク付けし、事故発生の可能性を最小限に抑えるための洞察を提供します。
論文 参考訳(メタデータ) (2021-03-12T17:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。