論文の概要: Adversarial Universal Stickers: Universal Perturbation Attacks on Traffic Sign using Stickers
- arxiv url: http://arxiv.org/abs/2502.18724v1
- Date: Wed, 26 Feb 2025 00:39:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:58:13.037013
- Title: Adversarial Universal Stickers: Universal Perturbation Attacks on Traffic Sign using Stickers
- Title(参考訳): 逆ユニバーサルステッカー:ステッカーを用いた交通標識に対するユニバーサル摂動攻撃
- Authors: Anthony Etim, Jakub Szefer,
- Abstract要約: この研究は、単純な黒と白のステッカーのように見える普遍的な摂動を生成する新しい方法を紹介している。
従来の敵の摂動とは異なり、敵の普遍ステッカーはあらゆる道路標識に適用できるように設計されている。
仮想環境での実験は、これらのステッカーが道路標識認識で一般的に使用されるディープラーニングモデルを一貫して誤解させることを示した。
- 参考スコア(独自算出の注目度): 10.353892677735212
- License:
- Abstract: Adversarial attacks on deep learning models have proliferated in recent years. In many cases, a different adversarial perturbation is required to be added to each image to cause the deep learning model to misclassify it. This is ineffective as each image has to be modified in a different way. Meanwhile, research on universal perturbations focuses on designing a single perturbation that can be applied to all images in a data set, and cause a deep learning model to misclassify the images. This work advances the field of universal perturbations by exploring universal perturbations in the context of traffic signs and autonomous vehicle systems. This work introduces a novel method for generating universal perturbations that visually look like simple black and white stickers, and using them to cause incorrect street sign predictions. Unlike traditional adversarial perturbations, the adversarial universal stickers are designed to be applicable to any street sign: same sticker, or stickers, can be applied in same location to any street sign and cause it to be misclassified. Further, to enable safe experimentation with adversarial images and street signs, this work presents a virtual setting that leverages Street View images of street signs, rather than the need to physically modify street signs, to test the attacks. The experiments in the virtual setting demonstrate that these stickers can consistently mislead deep learning models used commonly in street sign recognition, and achieve high attack success rates on dataset of US traffic signs. The findings highlight the practical security risks posed by simple stickers applied to traffic signs, and the ease with which adversaries can generate adversarial universal stickers that can be applied to many street signs.
- Abstract(参考訳): 近年,ディープラーニングモデルに対する敵対的攻撃が急増している。
多くの場合、深層学習モデルに誤分類をもたらすために、各画像に異なる逆方向の摂動を加える必要がある。
それぞれのイメージを別の方法で修正する必要があるため、これは効果がない。
一方、普遍摂動の研究は、データセット内のすべての画像に適用可能な単一の摂動を設計することに焦点を当て、深層学習モデルに画像の分類を誤る原因となる。
この研究は、交通標識や自動運転車システムの文脈における普遍的摂動を探求することで、普遍的摂動の分野を前進させる。
この研究は、単純な黒と白のステッカーのように視覚的に見え、それらを誤った道路標識予測に利用する、普遍的な摂動を生成する新しい方法を紹介した。
従来の敵の摂動とは異なり、敵の普遍ステッカーは任意の街路標識に適用できるように設計されており、同じステッカーまたはステッカーはどの街路標識にも同一の場所に適用でき、誤って分類される。
さらに、敵画像や街路標識の安全な実験を可能にするために、この研究は、街路標識を物理的に修正する必要がなく、街路標識のストリートビュー画像を活用する仮想設定を提示する。
仮想環境での実験は、これらのステッカーが道路標識認識で一般的に使用されるディープラーニングモデルを一貫して誤解させ、米国の交通標識のデータセット上で高い攻撃成功率を達成することを実証している。
この結果は、交通標識に適用された単純なステッカーによって引き起こされる現実的なセキュリティリスクと、多くの道路標識に適用可能な敵の普遍ステッカーを生成できる容易さを浮き彫りにした。
関連論文リスト
- DAVE: Diverse Atomic Visual Elements Dataset with High Representation of Vulnerable Road Users in Complex and Unpredictable Environments [60.69159598130235]
Vulnerable Road Users (VRU) の高表現による認識手法の評価を目的とした新しいデータセット DAVE を提案する。
DAVEは16種類のアクターカテゴリー(動物、人間、車など)と16種類のアクションタイプ(カットイン、ジグザグ運動、Uターンなど、複雑で稀なケース)を手動でアノテートしたデータセットである。
実験の結果,既存の手法はDAVEで評価すると性能の劣化に悩まされ,将来的なビデオ認識研究のメリットを浮き彫りにしていることがわかった。
論文 参考訳(メタデータ) (2024-12-28T06:13:44Z) - Secure Traffic Sign Recognition: An Attention-Enabled Universal Image Inpainting Mechanism against Light Patch Attacks [15.915892134535842]
研究者たちは最近、信号認識システムを騙す新たな攻撃ベクトルを特定した。
このセキュリティの脅威を効果的に解消するために,SafeSignというユニバーサルイメージの塗装機構を提案する。
それは、敵光のパッチによって汚染された交通標識を修復するために、注意力のある多視点画像融合に依存している。
論文 参考訳(メタデータ) (2024-09-06T08:58:21Z) - Explainable and Trustworthy Traffic Sign Detection for Safe Autonomous
Driving: An Inductive Logic Programming Approach [0.0]
自動走行車における停止信号検出のためのILPに基づくアプローチを提案する。
それは人間のような知覚を模倣するため、敵の攻撃に対してより堅牢である。
PR2やADvCamの攻撃があっても、標的とするすべての停止標識を正しく識別することができる。
論文 参考訳(メタデータ) (2023-08-30T09:05:52Z) - Adversarial Attacks on Traffic Sign Recognition: A Survey [2.658812114255374]
交通標識は、印刷された標識やステッカーを使って現実世界の攻撃を行うのが容易であるため、敵の攻撃研究には有望である。
我々は,最新の進歩の概要と,さらなる調査を必要とする既存の研究分野について概説する。
論文 参考訳(メタデータ) (2023-07-17T06:58:22Z) - Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z) - Deep Traffic Sign Detection and Recognition Without Target Domain Real
Images [52.079665469286496]
本稿では,ターゲットドメインからの実際の画像を必要としない新しいデータベース生成手法と,(ii)交通標識のテンプレートを提案する。
この方法は、実際のデータでトレーニングを克服することではなく、実際のデータが利用できない場合に互換性のある代替手段になることを目的としている。
大規模なデータセットでは、完全に合成されたデータセットによるトレーニングは、実際のデータセットとトレーニングのパフォーマンスにほぼ一致する。
論文 参考訳(メタデータ) (2020-07-30T21:06:47Z) - Over-the-Air Adversarial Flickering Attacks against Video Recognition
Networks [54.82488484053263]
ビデオ分類のためのディープニューラルネットワークは、敵の操作を受けることができる。
本稿では,フリックング時間摂動を導入することで,ビデオ分類器を騙す操作手法を提案する。
攻撃はいくつかの標的モデルに実装され、攻撃の伝達性が実証された。
論文 参考訳(メタデータ) (2020-02-12T17:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。