論文の概要: Fool the Stoplight: Realistic Adversarial Patch Attacks on Traffic Light Detectors
- arxiv url: http://arxiv.org/abs/2506.04823v1
- Date: Thu, 05 Jun 2025 09:41:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.639549
- Title: Fool the Stoplight: Realistic Adversarial Patch Attacks on Traffic Light Detectors
- Title(参考訳): 信号機を照らす: 現実的な対向的パッチ攻撃
- Authors: Svetlana Pavlitska, Jamie Robb, Nikolai Polley, Melih Yazgan, J. Marius Zöllner,
- Abstract要約: この研究は、信号検出用のCNNをプリントパッチで攻撃する方法を示している。
本稿では,信号機の各インスタンスにパッチを貼って攻撃する脅威モデルを提案し,トレーニング戦略について述べる。
実験では,現実的なレッド・ツー・グリーン・ラベル・フリップ攻撃とピクトグラム分類に対する攻撃を示す。
- 参考スコア(独自算出の注目度): 10.525130568825572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic adversarial attacks on various camera-based perception tasks of autonomous vehicles have been successfully demonstrated so far. However, only a few works considered attacks on traffic light detectors. This work shows how CNNs for traffic light detection can be attacked with printed patches. We propose a threat model, where each instance of a traffic light is attacked with a patch placed under it, and describe a training strategy. We demonstrate successful adversarial patch attacks in universal settings. Our experiments show realistic targeted red-to-green label-flipping attacks and attacks on pictogram classification. Finally, we perform a real-world evaluation with printed patches and demonstrate attacks in the lab settings with a mobile traffic light for construction sites and in a test area with stationary traffic lights. Our code is available at https://github.com/KASTEL-MobilityLab/attacks-on-traffic-light-detection.
- Abstract(参考訳): 自動運転車の様々なカメラによる認識タスクに対する現実的な敵対攻撃は、これまで成功裏に実証されてきた。
しかし、信号機に対する攻撃を考慮に入れた作品はごくわずかである。
この研究は、信号検出用のCNNをプリントパッチで攻撃する方法を示している。
本稿では,信号機の各インスタンスにパッチを貼って攻撃する脅威モデルを提案し,トレーニング戦略について述べる。
普遍的な設定で敵パッチ攻撃を成功させたことを実証する。
実験では,現実的なレッド・ツー・グリーン・ラベル・フリップ攻撃とピクトグラム分類に対する攻撃を示す。
最後に,印刷されたパッチを用いて実世界評価を行い,建設現場の移動式信号機と静止式の信号機を用いたテストエリアで,実験室環境における攻撃を実証する。
私たちのコードはhttps://github.com/KASTEL-MobilityLab/ attacks-on-traffic-light-detectionで利用可能です。
関連論文リスト
- Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - Invisible Optical Adversarial Stripes on Traffic Sign against Autonomous Vehicles [10.17957244747775]
本稿では、発光ダイオードを用いて、カメラのローリングシャッター効果を利用して交通標識認識を誤認する攻撃を提案する。
交通標識のストライプは人間には見えないので、攻撃はステルスです。
本稿では,カメラセンサ,知覚モデル,自律運転システムのレベルにおける対策について論じる。
論文 参考訳(メタデータ) (2024-07-10T09:55:31Z) - Invisible Reflections: Leveraging Infrared Laser Reflections to Target
Traffic Sign Perception [25.566091959509986]
道路標識は、速度制限や利得または停止の要件など、局所的に活発な規則を示す。
最近の研究は、標識にステッカーや投影された色のパッチを加えるなど、CAVの誤解釈を引き起こすような攻撃を実証している。
我々は、フィルタレス画像センサの感度を利用した効果的な物理世界攻撃を開発した。
論文 参考訳(メタデータ) (2024-01-07T21:22:42Z) - TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - REAP: A Large-Scale Realistic Adversarial Patch Benchmark [14.957616218042594]
アドリアパッチ攻撃は、自動運転車のようなカメラに依存するサイバー物理システムにとって重大な脅威となる。
実際の画像に対するパッチアタックをユーザが評価できるデジタルベンチマークであるREAPベンチマークを提案する。
Mapillary Vistasデータセットの上に構築された私たちのベンチマークには、14,000以上のトラフィックサインが含まれています。
論文 参考訳(メタデータ) (2022-12-12T03:35:05Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Dynamic Adversarial Patch for Evading Object Detection Models [47.32228513808444]
本研究では,実環境に適用したオブジェクト検出器に対する革新的な攻撃手法を提案する。
本手法では,対象物体上の複数の所定位置に配置される動的対向パッチを用いる。
対象オブジェクトと分類のセマンティック距離を考慮したパッチを生成することで攻撃を改善した。
論文 参考訳(メタデータ) (2020-10-25T08:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。