論文の概要: Comparative Analysis of Patch Attack on VLM-Based Autonomous Driving Architectures
- arxiv url: http://arxiv.org/abs/2603.08897v1
- Date: Mon, 09 Mar 2026 20:04:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.806896
- Title: Comparative Analysis of Patch Attack on VLM-Based Autonomous Driving Architectures
- Title(参考訳): VLMに基づく自律走行アーキテクチャにおけるパッチアタックの比較解析
- Authors: David Fernandez, Pedram MohajerAnsari, Amir Salarpour, Long Cheng, Abolfazl Razi, Mert D. Pesé,
- Abstract要約: 本稿では,Dolphins,OmniDrive(Omni-L),LeapVADという3つのVLMアーキテクチャを対象とした比較対数評価手法を提案する。
CARLAシミュレーションにおいて,ブラックボックス最適化とセマンティック・ホモジェナイゼーションを用いて,物理的に実現可能なパッチ攻撃を評価する。
その結果、すべてのアーキテクチャにまたがる深刻な脆弱性、持続的なマルチフレームの障害、重要なオブジェクト検出の劣化が明らかになった。
- 参考スコア(独自算出の注目度): 8.340004072808005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-language models are emerging for autonomous driving, yet their robustness to physical adversarial attacks remains unexplored. This paper presents a systematic framework for comparative adversarial evaluation across three VLM architectures: Dolphins, OmniDrive (Omni-L), and LeapVAD. Using black-box optimization with semantic homogenization for fair comparison, we evaluate physically realizable patch attacks in CARLA simulation. Results reveal severe vulnerabilities across all architectures, sustained multi-frame failures, and critical object detection degradation. Our analysis exposes distinct architectural vulnerability patterns, demonstrating that current VLM designs inadequately address adversarial threats in safety-critical autonomous driving applications.
- Abstract(参考訳): 自動運転車には視覚言語モデルが登場しているが、物理的な敵攻撃に対する堅牢性はまだ解明されていない。
本稿では,Dolphins,OmniDrive (Omni-L), LeapVADの3つのVLMアーキテクチャに対して,比較対角的評価を行うための体系的枠組みを提案する。
CARLAシミュレーションにおいて,ブラックボックス最適化とセマンティック・ホモジェナイゼーションを用いて,物理的に実現可能なパッチ攻撃を評価する。
その結果、すべてのアーキテクチャにまたがる深刻な脆弱性、持続的なマルチフレームの障害、重要なオブジェクト検出の劣化が明らかになった。
我々の分析は、現在のVLM設計が安全クリティカルな自動運転アプリケーションにおける敵の脅威に不適切に対処していることを示す、異なるアーキテクチャ上の脆弱性パターンを明らかにしている。
関連論文リスト
- Semantic Misalignment in Vision-Language Models under Perceptual Degradation [2.9140696506330723]
視覚知覚の制御下において視覚言語モデル(VLM)における意味的ミスアライメントについて検討する。
ダウンストリームVLMの動作に深刻な障害がみられ, 幻覚的対象の言及, 安全クリティカルな実体の欠落, 不整合性判定などが観察された。
以上の結果から,画素レベルのロバスト性とマルチモーダルなセマンティックな信頼性との明確な不一致が明らかとなり,現在のVLMシステムにとって重要な限界が浮き彫りになった。
論文 参考訳(メタデータ) (2026-01-13T09:13:05Z) - AttackVLA: Benchmarking Adversarial and Backdoor Attacks on Vision-Language-Action Models [60.39655329875822]
VLA(Vision-Language-Action)モデルは、ロボットが自然言語の命令を解釈し、多様なタスクを実行することを可能にするモデルである。
このようなモデルを攻撃することへの関心は高まっているが、既存の手法の有効性は依然として不明である。
我々はVLA開発ライフサイクルに合わせて統合されたフレームワークであるAttackVLAを提案する。
論文 参考訳(メタデータ) (2025-11-15T10:30:46Z) - Universal Camouflage Attack on Vision-Language Models for Autonomous Driving [67.34987318443761]
自動運転のためのビジュアル言語モデリングが、有望な研究方向として浮上している。
VLM-ADは、敵の攻撃による深刻なセキュリティ脅威に弱いままである。
VLM-ADのための最初のユニバーサルカモフラージュ攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-24T14:52:01Z) - Integrated Simulation Framework for Adversarial Attacks on Autonomous Vehicles [42.02003282828958]
本稿では,AVの知覚層と通信層の両方を対象とする敵攻撃を生成するための,新たなオープンソース統合シミュレーションフレームワークを提案する。
我々の実装は、V2Xメッセージ操作やGPSスプーフィングといった通信レベルの脅威と共に、LiDARセンサデータに対する多様な認識レベル攻撃をサポートしている。
本研究では, 現状の3Dオブジェクト検出器に対する, 生成した逆方向シナリオの影響を評価することで, フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2025-08-31T20:53:08Z) - Natural Reflection Backdoor Attack on Vision Language Model for Autonomous Driving [55.96227460521096]
視覚言語モデル(VLM)は推論能力を高めるために自律運転システムに統合されている。
本稿では,自律運転シナリオにおけるVLMシステムを対象とした自然反射型バックドアアタックを提案する。
我々の発見は、自動運転の厳しいリアルタイム要求を生かした、新たなタイプの攻撃を発見しました。
論文 参考訳(メタデータ) (2025-05-09T20:28:17Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。