論文の概要: MARL-OT: Multi-Agent Reinforcement Learning Guided Online Fuzzing to Detect Safety Violation in Autonomous Driving Systems
- arxiv url: http://arxiv.org/abs/2501.14451v1
- Date: Fri, 24 Jan 2025 12:34:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:57:20.533335
- Title: MARL-OT: Multi-Agent Reinforcement Learning Guided Online Fuzzing to Detect Safety Violation in Autonomous Driving Systems
- Title(参考訳): MARL-OT: 自律運転システムにおける安全違反検出のためのオンラインファズーによるマルチエージェント強化学習ガイド
- Authors: Linfeng Liang, Xi Zheng,
- Abstract要約: 本稿では、MARLを利用して自律運転システム(ADS)の安全違反を検出するスケーラブルなフレームワークであるMARL-OTを紹介する。
MARL-OTは、高レベルのガイダンスにMARLを採用しており、ルールベースのオンラインファジィザがADSの潜在的な安全違反を調査するために、様々な危険なシナリオを引き起こしている。
本手法は,最新技術(SOTA)試験法と比較して,検出された安全違反率を最大136.2%向上させる。
- 参考スコア(独自算出の注目度): 1.1677228160050082
- License:
- Abstract: Autonomous Driving Systems (ADSs) are safety-critical, as real-world safety violations can result in significant losses. Rigorous testing is essential before deployment, with simulation testing playing a key role. However, ADSs are typically complex, consisting of multiple modules such as perception and planning, or well-trained end-to-end autonomous driving systems. Offline methods, such as the Genetic Algorithm (GA), can only generate predefined trajectories for dynamics, which struggle to cause safety violations for ADSs rapidly and efficiently in different scenarios due to their evolutionary nature. Online methods, such as single-agent reinforcement learning (RL), can quickly adjust the dynamics' trajectory online to adapt to different scenarios, but they struggle to capture complex corner cases of ADS arising from the intricate interplay among multiple vehicles. Multi-agent reinforcement learning (MARL) has a strong ability in cooperative tasks. On the other hand, it faces its own challenges, particularly with convergence. This paper introduces MARL-OT, a scalable framework that leverages MARL to detect safety violations of ADS resulting from surrounding vehicles' cooperation. MARL-OT employs MARL for high-level guidance, triggering various dangerous scenarios for the rule-based online fuzzer to explore potential safety violations of ADS, thereby generating dynamic, realistic safety violation scenarios. Our approach improves the detected safety violation rate by up to 136.2% compared to the state-of-the-art (SOTA) testing technique.
- Abstract(参考訳): 自律運転システム(ADS)は、現実世界の安全違反が重大な損失をもたらす可能性があるため、安全に欠かせない。
厳密なテストはデプロイ前に必須であり、シミュレーションテストが重要な役割を果たす。
しかしながら、ADSは一般的に複雑で、知覚や計画、よく訓練されたエンドツーエンドの自動運転システムといった複数のモジュールから構成される。
遺伝的アルゴリズム(GA)のようなオフラインの手法は、動的に事前に定義された軌跡しか生成できないが、進化の性質から、様々なシナリオにおいて、ADSの安全違反を迅速かつ効率的に起こすのに苦労している。
シングルエージェント強化学習(RL)のようなオンライン手法は、異なるシナリオに適応するために、オンラインのダイナミクスの軌道を迅速に調整するが、複数の車両間の複雑な相互作用から生じる複雑なADSのコーナーケースを捉えるのに苦労する。
マルチエージェント強化学習(MARL)は協調作業において強力な能力を有する。
一方で、特に収束において、独自の課題に直面しています。
本稿では、MARLを利用したスケーラブルなフレームワークであるMARL-OTを紹介し、周囲の車両の協調によるADSの安全性違反を検出する。
MARL-OTは、高レベルのガイダンスにMARLを使用し、ルールベースのオンラインファジィザがADSの潜在的な安全違反を探索するために様々な危険なシナリオを引き起こし、それによって動的で現実的な安全違反シナリオを生成する。
本手法は,最新技術(SOTA)試験法と比較して,検出された安全違反率を最大136.2%向上させる。
関連論文リスト
- TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - LLM-attacker: Enhancing Closed-loop Adversarial Scenario Generation for Autonomous Driving with Large Language Models [39.139025989575686]
大規模言語モデル(LLM)を利用したアクセルループ逆シナリオ生成フレームワーク
交通参加者の行動を操作して安全クリティカルな事象を誘発する逆シナリオ生成法が開発されている。
LLM攻撃者は、他の方法よりも危険なシナリオを作成でき、それを用いて訓練されたADSは、通常のシナリオでのトレーニングの半分の衝突率を達成する。
論文 参考訳(メタデータ) (2025-01-27T08:18:52Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening [16.305837225117607]
本稿では, CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardeningを紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘導するために、AVシミュレータ内のNon Player Character(NPC)エージェントを制御することができる。
我々はまた、敵エージェントに対する改善シナリオをシミュレートすることで、運動プランナーを反復的に洗練する安全硬化という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-26T00:00:27Z) - LMM-enhanced Safety-Critical Scenario Generation for Autonomous Driving System Testing From Non-Accident Traffic Videos [22.638869562921133]
自律運転システムにとって、さまざまな安全クリティカルなテストシナリオを生成することが最重要である。
事故のない現実のシナリオの中には、ADSの誤動作を引き起こすだけでなく、ADS違反の発生にも活用できるものもある。
通常の交通シナリオからADSの安全違反を発見することが重要である。
論文 参考訳(メタデータ) (2024-06-16T09:05:56Z) - Safe Multi-Agent Reinforcement Learning with Bilevel Optimization in Autonomous Driving [3.5293763645151404]
そこで本稿では,二段階最適化を用いたスタックルバーグモデルに基づく安全なMARL法を提案する。
Constrained Stackelberg Q-learning (CSQ) と Constrained Stackelberg Multi-Agent Deep Deterministic Policy Gradient (CS-MADDPG) の2つの実用的なアルゴリズムを開発した。
CSQ と CS-MADDPG のアルゴリズムは,Bi-AC,MACPO,MAPPO-L などの強力な MARL ベースラインよりも,報酬と安全性の面で優れていた。
論文 参考訳(メタデータ) (2024-05-28T14:15:18Z) - PAFOT: A Position-Based Approach for Finding Optimal Tests of Autonomous Vehicles [4.243926243206826]
本稿では位置に基づくアプローチテストフレームワークであるPAFOTを提案する。
PAFOTは、自動走行システムの安全違反を明らかにするために、敵の運転シナリオを生成する。
PAFOTはADSをクラッシュさせる安全クリティカルなシナリオを効果的に生成し、短いシミュレーション時間で衝突を見つけることができることを示す実験である。
論文 参考訳(メタデータ) (2024-05-06T10:04:40Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Learned Risk Metric Maps for Kinodynamic Systems [54.49871675894546]
本研究では,高次元力学系のコヒーレントリスクメトリクスをリアルタイムに推定するための学習型リスクメトリクスマップを提案する。
LRMMモデルは設計と訓練が簡単で、障害セットの手続き的生成、状態と制御のサンプリング、および関数近似器の教師付きトレーニングのみを必要とする。
論文 参考訳(メタデータ) (2023-02-28T17:51:43Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。