論文の概要: D4+: Emergent Adversarial Driving Maneuvers with Approximate Functional Optimization
- arxiv url: http://arxiv.org/abs/2505.13942v1
- Date: Tue, 20 May 2025 05:22:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.758555
- Title: D4+: Emergent Adversarial Driving Maneuvers with Approximate Functional Optimization
- Title(参考訳): D4+: 近似関数最適化を用いた創発的対向駆動マニピュレータ
- Authors: Diego Ortiz Barbosa, Luis Burbano, Carlos Hernandez, Zengxiang Lei, Younghee Park, Satish Ukkusuri, Alvaro A Cardenas,
- Abstract要約: 我々は、自動運転車と相互作用する悪意のあるドライバーの影響を特定するために、形式的な手法でシナリオベースのフレームワークを実装した。
われわれの結果は、悪質なドライバーが現代の車両の自律的機能を利用するのを防ぐ安全な運転行動の範囲をデザイナーが特定するのに役立つ。
- 参考スコア(独自算出の注目度): 3.763470738887407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intelligent mechanisms implemented in autonomous vehicles, such as proactive driving assist and collision alerts, reduce traffic accidents. However, verifying their correct functionality is difficult due to complex interactions with the environment. This problem is exacerbated in adversarial environments, where an attacker can control the environment surrounding autonomous vehicles to exploit vulnerabilities. To preemptively identify vulnerabilities in these systems, in this paper, we implement a scenario-based framework with a formal method to identify the impact of malicious drivers interacting with autonomous vehicles. The formalization of the evaluation requirements utilizes metric temporal logic (MTL) to identify a safety condition that we want to test. Our goal is to find, through a rigorous testing approach, any trace that violates this MTL safety specification. Our results can help designers identify the range of safe operational behaviors that prevent malicious drivers from exploiting the autonomous features of modern vehicles.
- Abstract(参考訳): 積極的運転補助や衝突警報などの自律走行車に実装されたインテリジェントなメカニズムは、交通事故を減らす。
しかし,環境との複雑な相互作用のため,それらの機能を検証することは困難である。
この問題は、攻撃者が自動運転車を取り巻く環境を制御して脆弱性を悪用できる敵環境において悪化する。
本稿では,これらのシステムの脆弱性を事前に特定するために,自動走行車と相互作用する悪意のある運転者の影響を特定するための形式的手法を用いてシナリオベースのフレームワークを実装した。
評価条件の形式化は、テストしたい安全条件を特定するためにメートル法時間論理(MTL)を利用する。
私たちの目標は、厳格なテストアプローチを通じて、このMTL安全仕様に違反した痕跡を見つけることです。
われわれの結果は、悪質なドライバーが現代の車両の自律的機能を利用するのを防ぐ安全な運転行動の範囲をデザイナーが特定するのに役立つ。
関連論文リスト
- AttentionGuard: Transformer-based Misbehavior Detection for Secure Vehicular Platoons [0.0]
車両小隊は、認証されたインサイダーによる高度なファルシフィケーション攻撃に対して脆弱である。
本稿では,誤動作検出のためのトランスフォーマーベースのフレームワークであるAttentionGuardを紹介する。
我々は,AttentionGuardが攻撃検出において最大0.95F1スコアを達成することを示す。
論文 参考訳(メタデータ) (2025-05-15T13:24:09Z) - Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
MLLM(Multimodal Large Language Models)は、視覚データとテキストデータの両方を処理する。
構造化されていない知識と構造化されていない知識の両方を取り入れることでMLLMベースの自動運転システムを強化する新しいフレームワークであるSafeAutoを提案する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening [16.305837225117607]
本稿では, CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardeningを紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘導するために、AVシミュレータ内のNon Player Character(NPC)エージェントを制御することができる。
我々はまた、敵エージェントに対する改善シナリオをシミュレートすることで、運動プランナーを反復的に洗練する安全硬化という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-26T00:00:27Z) - Enhancing Road Safety: Real-Time Detection of Driver Distraction through Convolutional Neural Networks [0.0]
本研究は,運転者の気晴らしをリアルタイムに検出する上で,最も効率的なモデルを明らかにすることを目的とする。
最終的な目的は、この発見を車両の安全システムに組み込むことであり、不注意によって引き起こされる事故を防ぐ能力を大幅に向上させることである。
論文 参考訳(メタデータ) (2024-05-28T03:34:55Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Adaptive Failure Search Using Critical States from Domain Experts [9.93890332477992]
フェールサーチは、シミュレーションまたは実世界のテストにおいて、かなりの走行距離をロギングすることで行うことができる。
ASTはマルコフ決定プロセスとして失敗探索の問題を提起する手法である。
ASTフレームワークにクリティカルステートを組み込むことで,安全性違反の増大を伴う障害シナリオが生成されることを示す。
論文 参考訳(メタデータ) (2023-04-01T18:14:41Z) - Attacks and Faults Injection in Self-Driving Agents on the Carla
Simulator -- Experience Report [1.933681537640272]
運転シミュレーター内を走行する自動運転エージェントにおける敵攻撃とソフトウェア障害の注入について報告する。
訓練されたエージェントに敵の攻撃や障害が注入された場合、誤った判断を下し、安全性を著しく損なう可能性があることを示す。
論文 参考訳(メタデータ) (2022-02-25T21:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。