論文の概要: Beyond Crash: Hijacking Your Autonomous Vehicle for Fun and Profit
- arxiv url: http://arxiv.org/abs/2602.07249v1
- Date: Fri, 06 Feb 2026 22:57:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.526055
- Title: Beyond Crash: Hijacking Your Autonomous Vehicle for Fun and Profit
- Title(参考訳): 自動運転車を乗っ取る「Beyond Crash」
- Authors: Qi Sun, Ahmed Abdo, Luis Burbano, Ziyang Li, Yaxing Yao, Alvaro Cardenas, Yinzhi Cao,
- Abstract要約: 本稿は,長距離経路整合性妥協という,定性的に異なるリスクを示す。
我々は、ビジョンベースのエンド・ツー・エンド駆動スタックのルートレベルのハイジャックを行う、JackZebraと呼ばれる最初の敵対的フレームワークを実装した。
評価の結果,JackZebraは本来のルートから逸脱し,敵の目的地で高い成功率で停止するために,被害者車両を乗っ取ることに成功した。
- 参考スコア(独自算出の注目度): 31.49443767609053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous Vehicles (AVs), especially vision-based AVs, are rapidly being deployed without human operators. As AVs operate in safety-critical environments, understanding their robustness in an adversarial environment is an important research problem. Prior physical adversarial attacks on vision-based autonomous vehicles predominantly target immediate safety failures (e.g., a crash, a traffic-rule violation, or a transient lane departure) by inducing a short-lived perception or control error. This paper shows a qualitatively different risk: a long-horizon route integrity compromise, where an attacker gradually steers a victim AV away from its intended route and into an attacker-chosen destination while the victim continues to drive "normally." This will not pose a danger to the victim vehicle itself, but also to potential passengers sitting inside the vehicle. In this paper, we design and implement the first adversarial framework, called JackZebra, that performs route-level hijacking of a vision-based end-to-end driving stack using a physically plausible attacker vehicle with a reconfigurable display mounted on the rear. The central challenge is temporal persistence: adversarial influence must remain effective in changing viewpoints, lighting, weather, traffic, and the victim's continual replanning -- without triggering conspicuous failures. Our key insight is to treat route hijacking as a closed-loop control problem and to convert adversarial patches into steering primitives that can be selected online via an interactive adjustment loop. Our adversarial patches are also carefully designed against worst-case background and sensor variations so that the adversarial impacts on the victim. Our evaluation shows that JackZebra can successfully hijack victim vehicles to deviate from original routes and stop at adversarial destinations with a high success rate.
- Abstract(参考訳): 自律走行車(AV)、特に視覚ベースのAVは、人間のオペレーターなしで急速に配備されている。
AVは安全クリティカルな環境で運用されるため、敵環境におけるその堅牢性を理解することが重要な研究課題である。
視覚に基づく自動運転車に対する以前の物理的敵対攻撃は、短期的な認識や制御エラーを誘発することにより、即時安全障害(例えば、事故、交通ルール違反、一時的な車線離脱)を主にターゲットとしていた。
本論文は,攻撃者が「通常通り」運転を続ける間,攻撃者が徐々に被害者のAVを意図した経路から切り離し,攻撃者の目的地へと誘導する,長距離経路の完全性妥協という,定性的に異なるリスクを示す。
これは被害者の車自体に危険をもたらすものではなく、車の中に座る潜在的な乗客にも危険をもたらす。
本稿では、後方に再構成可能なディスプレイを備えた物理的に可視な攻撃車両を用いて、視覚ベースのエンド・ツー・エンド駆動スタックの経路レベルのハイジャックを行う、JackZebraと呼ばれる最初の対向フレームワークの設計と実装を行う。
敵の影響力は、目立った失敗を引き起こすことなく、視点、照明、天気、交通、および被害者の継続的な計画の変更に有効でなければならない。
我々の重要な洞察は、ルートハイジャックをクローズドループ制御問題として扱い、敵パッチをインタラクティブな調整ループを介してオンラインで選択できるステアリングプリミティブに変換することである。
我々の敵パッチは、最悪の背景やセンサーのバリエーションに対して慎重に設計されており、敵パッチが被害者に影響を与えます。
評価の結果,JackZebraは被害車両をハイジャックし,本来のルートから逸脱し,敵の目的地で高い成功率で停止できることがわかった。
関連論文リスト
- Natural Reflection Backdoor Attack on Vision Language Model for Autonomous Driving [55.96227460521096]
視覚言語モデル(VLM)は推論能力を高めるために自律運転システムに統合されている。
本稿では,自律運転シナリオにおけるVLMシステムを対象とした自然反射型バックドアアタックを提案する。
我々の発見は、自動運転の厳しいリアルタイム要求を生かした、新たなタイプの攻撃を発見しました。
論文 参考訳(メタデータ) (2025-05-09T20:28:17Z) - Impact Analysis of Inference Time Attack of Perception Sensors on Autonomous Vehicles [11.693109854958479]
自動運転車の予測時間攻撃に基づく影響分析を提案する。
我々は,エゴ車両と他の交通機関の双方の安全を脅かすために,そのような推定時間攻撃をシミュレーションシステムで実証する。
論文 参考訳(メタデータ) (2025-05-05T23:00:27Z) - Mitigation of Camouflaged Adversarial Attacks in Autonomous Vehicles--A Case Study Using CARLA Simulator [3.1006820631993515]
AVにおける交通信号認識を目的としたカメラカモフラージュ対向攻撃を開発した。
その結果、このような攻撃は停止標識に対する自動ブレーキ応答を遅らせる可能性があり、潜在的な安全上の問題を引き起こす可能性が示唆された。
提案手法は、他のエンドツーエンドの自律サイバー物理システムに適用可能である。
論文 参考訳(メタデータ) (2025-02-03T17:30:43Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - Enhancing Safety for Autonomous Agents in Partly Concealed Urban Traffic Environments Through Representation-Based Shielding [2.9685635948300004]
本稿では,自律型エージェントが知覚できる情報を中心に,強化学習エージェント(RL)のための新しい状態表現を提案する。
我々の発見は、より堅牢で信頼性の高い自律ナビゲーション戦略の道を開いた。
論文 参考訳(メタデータ) (2024-07-05T08:34:49Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Adversarial Attack Against Image-Based Localization Neural Networks [1.911678487931003]
本稿では,自動運転車のイメージベース位置決めモジュールを敵に攻撃する概念実証について述べる。
レンダリングされた画像のデータベースにより、ローカライズタスクを実行し、敵のパターンを実装し、開発し、評価するディープニューラルネットワークをトレーニングすることができます。
論文 参考訳(メタデータ) (2022-10-11T16:58:19Z) - Stop-and-Go: Exploring Backdoor Attacks on Deep Reinforcement
Learning-based Traffic Congestion Control Systems [16.01681914880077]
DRLを用いたAVコントローラのバックドア/トロイジャリングについて検討する。
悪意ある行動としては、車両の減速と加速によって停止・停止する交通波が発生することが挙げられる。
実験により、バックドアモデルが通常の動作性能を損なわないことが示された。
論文 参考訳(メタデータ) (2020-03-17T08:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。