論文の概要: PHANTOM: PHysical ANamorphic Threats Obstructing Connected Vehicle Mobility
- arxiv url: http://arxiv.org/abs/2512.19711v1
- Date: Mon, 15 Dec 2025 06:05:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.579536
- Title: PHANTOM: PHysical ANamorphic Threats Obstructing Connected Vehicle Mobility
- Title(参考訳): PHANTOM:コネクテッド・ビークル・モビリティを妨害する相変わらずのアナモルフィック・脅威
- Authors: Md Nahid Hasan Shuvo, Moinul Hossain,
- Abstract要約: 接続された自動運転車(CAV)は、視覚ベースのディープニューラルネットワーク(DNN)と低レイテンシ(Vehicle-to-Everything)V2X通信に依存して、安全かつ効率的にナビゲートする。
我々は、視点に依存した敵の例を作成し、展開するための新しいフレームワークであるPHANTOMを紹介した。
PHANTOMは、人間には自然なように見える幾何学的歪みを利用しており、最先端の物体検出器によって高い信頼性で分類されている。
- 参考スコア(独自算出の注目度): 1.9336815376402718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Connected autonomous vehicles (CAVs) rely on vision-based deep neural networks (DNNs) and low-latency (Vehicle-to-Everything) V2X communication to navigate safely and efficiently. Despite their advances, these systems remain vulnerable to physical adversarial attacks. In this paper, we introduce PHANTOM (PHysical ANamorphic Threats Obstructing connected vehicle Mobility), a novel framework for crafting and deploying perspective-dependent adversarial examples using \textit{anamorphic art}. PHANTOM exploits geometric distortions that appear natural to humans but are misclassified with high confidence by state-of-the-art object detectors. Unlike conventional attacks, PHANTOM operates in black-box settings without model access and demonstrates strong transferability across four diverse detector architectures (YOLOv5, SSD, Faster R-CNN, and RetinaNet). Comprehensive evaluation in CARLA across varying speeds, weather conditions, and lighting scenarios shows that PHANTOM achieves over 90\% attack success rate under optimal conditions and maintains 60-80\% effectiveness even in degraded environments. The attack activates within 6-10 meters of the target, providing insufficient time for safe maneuvering. Beyond individual vehicle deception, PHANTOM triggers network-wide disruption in CAV systems: SUMO-OMNeT++ co-simulation demonstrates that false emergency messages propagate through V2X links, increasing Peak Age of Information by 68-89\% and degrading safety-critical communication. These findings expose critical vulnerabilities in both perception and communication layers of CAV ecosystems.
- Abstract(参考訳): 接続された自動運転車(CAV)は、視覚ベースのディープニューラルネットワーク(DNN)と低レイテンシ(Vehicle-to-Everything)V2X通信に依存して、安全かつ効率的にナビゲートする。
彼らの進歩にもかかわらず、これらのシステムは物理的な敵攻撃に弱いままである。
本稿では,PHANTOM(PHysical ANamorphic Threats Obstructing connected Vehicle Mobility)を紹介する。
PHANTOMは、人間には自然なように見える幾何学的歪みを利用しており、最先端の物体検出器によって高い信頼性で分類されている。
従来の攻撃とは異なり、PHANTOMはモデルアクセスなしでブラックボックス環境で動作し、4つの多様な検出器アーキテクチャ(YOLOv5、SSD、Faster R-CNN、RetinaNet)間で強力な転送性を示す。
CARLAにおける様々な速度、気象条件、照明シナリオの総合的な評価は、PHANTOMが最適な条件下での攻撃成功率90%以上を達成し、劣化した環境においても60~80%の効率を維持していることを示している。
攻撃は目標から6-10メートル以内で起動し、安全な操縦に十分な時間を与える。
SUMO-OMNeT++の共シミュレーションは、偽の緊急メッセージがV2Xリンクを介して伝播し、ピークエイジ・オブ・インフォメーションが68-89\%増加し、安全性とクリティカルなコミュニケーションが低下していることを示しています。
これらの結果は、CAVエコシステムの知覚層とコミュニケーション層の両方において重大な脆弱性を露呈する。
関連論文リスト
- Attention in Motion: Secure Platooning via Transformer-based Misbehavior Detection [0.6999740786886536]
車両小隊は、多車編成の調整を通じて、輸送効率と安全性の変革的な改善を約束する。
確率チェックや統計的手法に依存する従来の誤動作検出手法は、偽陽性(FP)率が高い。
Intention In Motion (AIMformer) は、車体プラトンにおけるリアルタイムな誤動作検出に適したトランスフォーマーベースのフレームワークである。
論文 参考訳(メタデータ) (2025-12-17T14:45:33Z) - The Outline of Deception: Physical Adversarial Attacks on Traffic Signs Using Edge Patches [6.836569632189732]
本研究は,交通標識分類のためのステルス対応逆パッチ方式TESP-Attackを提案する。
人間の視覚的注意は主に交通標識の中央領域に焦点を当てているという観察に基づいて, エッジアライメントマスクを生成するために, ケースセグメンテーションを採用している。
U-Netジェネレータは敵パッチの作成に利用され、色とテクスチャの制約によって最適化される。
論文 参考訳(メタデータ) (2025-11-30T07:26:07Z) - Universal Camouflage Attack on Vision-Language Models for Autonomous Driving [67.34987318443761]
自動運転のためのビジュアル言語モデリングが、有望な研究方向として浮上している。
VLM-ADは、敵の攻撃による深刻なセキュリティ脅威に弱いままである。
VLM-ADのための最初のユニバーサルカモフラージュ攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-24T14:52:01Z) - Poison Once, Control Anywhere: Clean-Text Visual Backdoors in VLM-based Mobile Agents [54.35629963816521]
この研究は、VLMベースのモバイルエージェントをターゲットにした最初のクリーンテキストバックドアアタックであるVIBMAを紹介する。
この攻撃は、視覚的な入力だけを変更することによって、悪意ある振る舞いをモデルに注入する。
クリーンタスクの動作を保ちながら高い成功率を達成できることを示す。
論文 参考訳(メタデータ) (2025-06-16T08:09:32Z) - Natural Reflection Backdoor Attack on Vision Language Model for Autonomous Driving [55.96227460521096]
視覚言語モデル(VLM)は推論能力を高めるために自律運転システムに統合されている。
本稿では,自律運転シナリオにおけるVLMシステムを対象とした自然反射型バックドアアタックを提案する。
我々の発見は、自動運転の厳しいリアルタイム要求を生かした、新たなタイプの攻撃を発見しました。
論文 参考訳(メタデータ) (2025-05-09T20:28:17Z) - Zero-Day Botnet Attack Detection in IoV: A Modular Approach Using Isolation Forests and Particle Swarm Optimization [5.283060049860749]
ボットのマルウェアとサイバー攻撃は、コネクテッドと自律走行車に重大なリスクをもたらす。
CAV間のネットワークトラフィックをモニタするエッジベース侵入検知システム(IDS)を提案する。
論文 参考訳(メタデータ) (2025-04-26T05:57:03Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。