論文の概要: Dynamic Deception: When Pedestrians Team Up to Fool Autonomous Cars
- arxiv url: http://arxiv.org/abs/2602.18079v1
- Date: Fri, 20 Feb 2026 09:09:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.273593
- Title: Dynamic Deception: When Pedestrians Team Up to Fool Autonomous Cars
- Title(参考訳): 歩行者が自律走行車と組むときのダイナミック・デセプション
- Authors: Masoud Jamshidiyan Tehrani, Marco Gabriel, Jinhan Kim, Paolo Tonella,
- Abstract要約: 自動運転車の知覚モデルに対する敵の攻撃は、フルドライブスタックに一度デプロイされたシステムレベルの障害を引き起こすことに失敗する。
本稿では,複数の動的要素が逆パッチを持つシステムレベルアタックを提案する。
我々はCARLAシミュレータにおける攻撃を最先端の自律運転エージェントを用いて評価した。
- 参考スコア(独自算出の注目度): 7.072654753416604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many adversarial attacks on autonomous-driving perception models fail to cause system-level failures once deployed in a full driving stack. The main reason for such ineffectiveness is that once deployed in a system (e.g., within a simulator), attacks tend to be spatially or temporally short-lived, due to the vehicle's dynamics, hence rarely influencing the vehicle behaviour. In this paper, we address both limitations by introducing a system-level attack in which multiple dynamic elements (e.g., two pedestrians) carry adversarial patches (e.g., on cloths) and jointly amplify their effect through coordination and motion. We evaluate our attacks in the CARLA simulator using a state-of-the-art autonomous driving agent. At the system level, single-pedestrian attacks fail in all runs (out of 10), while dynamic collusion by two pedestrians induces full vehicle stops in up to 50\% of runs, with static collusion yielding no successful attack at all. These results show that system-level failures arise only when adversarial signals persist over time and are amplified through coordinated actors, exposing a gap between model-level robustness and end-to-end safety.
- Abstract(参考訳): 自動運転車の知覚モデルに対する多くの敵攻撃は、フルドライブスタックに一度デプロイされたシステムレベルの障害を引き起こすことに失敗する。
このような非効率性の主な理由は、一度システム(例えばシミュレーター内)に配備されると、攻撃は車両のダイナミクスのために空間的または時間的に短命であり、車両の挙動に影響を与えることは稀である。
本稿では,複数の動的要素(例えば,2人の歩行者)が対向パッチ(例えば,布)を携帯し,協調と運動によってそれらの効果を増幅するシステムレベルアタックを導入することにより,両方の制約に対処する。
我々はCARLAシミュレータにおける攻撃を最先端の自律運転エージェントを用いて評価した。
システムレベルでは、単一歩行者による攻撃は全走行で失敗し(10回中)、2人の歩行者による動的衝突は最大50 %の走行で全車停止を誘導し、静的衝突は無成功に終わる。
これらの結果から, 対向信号が時間とともに持続し, 調整されたアクターによって増幅された場合にのみシステムレベルの障害が発生し, モデルレベルの堅牢性とエンドツーエンドの安全性のギャップが明らかとなった。
関連論文リスト
- AD$^2$: Analysis and Detection of Adversarial Threats in Visual Perception for End-to-End Autonomous Driving Systems [7.505610942484861]
本研究では,CARLAにおけるブラックボックスの敵対的脅威モデルの下で,最先端の自律走行エージェントの閉ループ評価を行う。
視覚知覚パイプラインにおける3つの代表的な攻撃ベクトルについて考察する: (i) 音波によって誘発される物理ベースのぼかし攻撃、 (ii) 捉えた画像を歪ませる電磁干渉攻撃、 (iii) ゴーストオブジェクトを画像上に慎重に構築した有界摂動として付加するデジタル攻撃。
TransfuserとInterfuserという2つの高度なエージェントの実験では、そのような攻撃に対する深刻な脆弱性が明らかとなり、運転スコアは最大99%低下した。
論文 参考訳(メタデータ) (2026-02-10T05:13:37Z) - Attacking Autonomous Driving Agents with Adversarial Machine Learning: A Holistic Evaluation with the CARLA Leaderboard [8.45711173703347]
我々は、MLモデルに対して単独で攻撃するのではなく、様々な運転エージェントに対する攻撃を評価する。
我々は、運転エージェントを停止またはステアリングするために設計された敵パッチを作成し、実行時にそれをCARLAシミュレータにストリームし、CARLA Leaderboardのエージェントに対して評価する。
いくつかの攻撃はMLモデルを誤って停止または操縦するコマンドを予測することに成功しているが、一部の駆動エージェントはPID制御やGPSベースのルールなどのモジュールを使用しており、MLモデルから攻撃者が操作する予測をオーバーロードすることができる。
論文 参考訳(メタデータ) (2025-11-18T19:49:46Z) - Natural Reflection Backdoor Attack on Vision Language Model for Autonomous Driving [55.96227460521096]
視覚言語モデル(VLM)は推論能力を高めるために自律運転システムに統合されている。
本稿では,自律運転シナリオにおけるVLMシステムを対象とした自然反射型バックドアアタックを提案する。
我々の発見は、自動運転の厳しいリアルタイム要求を生かした、新たなタイプの攻撃を発見しました。
論文 参考訳(メタデータ) (2025-05-09T20:28:17Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - Dynamic Adversarial Attacks on Autonomous Driving Systems [16.657485186920102]
本稿では,自律走行システムのレジリエンスに挑戦する攻撃機構を提案する。
我々は、他の移動車に搭載された画面に対向パッチを動的に表示することにより、自動運転車の意思決定プロセスを操作する。
我々の実験は、現実の自律走行シナリオにおけるこのような動的敵攻撃の実装が最初に成功したことを実証している。
論文 参考訳(メタデータ) (2023-12-10T04:14:56Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Isolating and Leveraging Controllable and Noncontrollable Visual
Dynamics in World Models [65.97707691164558]
Iso-DreamはDream-to-Controlフレームワークを2つの側面で改善する。
まず、逆動力学を最適化することにより、世界モデルに制御可能で制御不能な情報源を学習させることを奨励する。
第2に、エージェントの挙動を世界モデルの切り離された潜在的想像力に最適化する。
論文 参考訳(メタデータ) (2022-05-27T08:07:39Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。