論文の概要: GAN-Based Single-Stage Defense for Traffic Sign Classification Under Adversarial Patch Attack
- arxiv url: http://arxiv.org/abs/2503.12567v1
- Date: Sun, 16 Mar 2025 16:47:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:54.262672
- Title: GAN-Based Single-Stage Defense for Traffic Sign Classification Under Adversarial Patch Attack
- Title(参考訳): 逆パッチアタックによる交通信号分類のためのGANを用いたシングルステージ防御
- Authors: Abyad Enan, Mashrur Chowdhury,
- Abstract要約: 知覚モジュールは敵攻撃に対して脆弱であり、その精度と信頼性を損なう可能性がある。
そのような攻撃の1つは、敵のパッチ攻撃 (APA) であり、敵がオブジェクトに特別に製作されたステッカーを戦略的に配置し、オブジェクトの分類を欺く物理的攻撃である。
本研究では,GAN(Generative Adversarial Network)に基づく交通標識分類のための単一段階防衛戦略を開発する。
- 参考スコア(独自算出の注目度): 3.3296812191509786
- License:
- Abstract: Computer Vision plays a critical role in ensuring the safe navigation of autonomous vehicles (AVs). An AV perception module is responsible for capturing and interpreting the surrounding environment to facilitate safe navigation. This module enables AVs to recognize traffic signs, traffic lights, and various road users. However, the perception module is vulnerable to adversarial attacks, which can compromise their accuracy and reliability. One such attack is the adversarial patch attack (APA), a physical attack in which an adversary strategically places a specially crafted sticker on an object to deceive object classifiers. In APA, an adversarial patch is positioned on a target object, leading the classifier to misidentify it. Such an APA can cause AVs to misclassify traffic signs, leading to catastrophic incidents. To enhance the security of an AV perception system against APAs, this study develops a Generative Adversarial Network (GAN)-based single-stage defense strategy for traffic sign classification. This approach is tailored to defend against APAs on different classes of traffic signs without prior knowledge of a patch's design. This study found this approach to be effective against patches of varying sizes. Our experimental analysis demonstrates that the defense strategy presented in this paper improves the classifier's accuracy under APA conditions by up to 80.8% and enhances overall classification accuracy for all the traffic signs considered in this study by 58%, compared to a classifier without any defense mechanism. Our defense strategy is model-agnostic, making it applicable to any traffic sign classifier, regardless of the underlying classification model.
- Abstract(参考訳): コンピュータビジョンは、自動運転車(AV)の安全なナビゲーションを保証する上で重要な役割を果たす。
AV知覚モジュールは周囲の環境を捕捉して解釈し、安全なナビゲーションを容易にする。
このモジュールにより、AVは交通標識、信号機、および様々な道路利用者を認識することができる。
しかし、認識モジュールは敵攻撃に対して脆弱であり、その精度と信頼性を損なう可能性がある。
そのような攻撃の1つは、敵のパッチ攻撃 (APA) であり、敵がオブジェクトに特別に製作されたステッカーを戦略的に配置し、オブジェクトの分類を欺く物理的攻撃である。
APAでは、敵のパッチを対象のオブジェクトに配置し、分類器がそれを誤識別する。
このようなAPAは、AVが交通標識を誤って分類し、破滅的な事故を引き起こす可能性がある。
本研究では,APAに対するAV認識システムの安全性を高めるために,GANに基づく交通標識分類のための単一段階防衛戦略を開発した。
このアプローチは、パッチの設計を事前に知ることなく、さまざまな種類の交通標識でAPAを防御するように設計されている。
この研究は、様々な大きさのパッチに対して効果的であることが判明した。
本研究は,APA条件下での分類器の精度を最大80.8%向上し,また,防衛機構のない分類器と比較して,全交通標識の総合的分類精度を58%向上することを示した。
我々の防衛戦略はモデルに依存しないため、根底にある分類モデルに関係なく、いかなる交通標識分類にも適用できる。
関連論文リスト
- A Real-Time Defense Against Object Vanishing Adversarial Patch Attacks for Object Detection in Autonomous Vehicles [0.0]
ADAV (Adversarial Defense for autonomous Vehicles) は、物体の消滅するパッチ攻撃に対する新しい防御手法である。
ADAVはリアルタイムで動作し、AVのビデオフィードの以前のフレームからコンテキスト情報を活用する。
ADAVは、Berkeley Deep Drive BDD100Kデータセットの実際の運転データを用いて評価される。
論文 参考訳(メタデータ) (2024-12-09T05:21:14Z) - Time Traveling to Defend Against Adversarial Example Attacks in Image Classification [10.353892677735212]
敵の例による攻撃は、機械学習にとって重要な脅威として浮上している。
画像分類における敵対的攻撃は、画像分類ニューラルネットワークを混乱させる画像への様々な小さな修正を悪用する。
この研究は「タイムトラベル」の概念を導入し、誰にでもアクセス可能な歴史的ストリートビュー画像を用いて、同じ標識の異なる過去のバージョンで推論を行う。
論文 参考訳(メタデータ) (2024-10-10T19:56:28Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - AR-GAN: Generative Adversarial Network-Based Defense Method Against
Adversarial Attacks on the Traffic Sign Classification System of Autonomous
Vehicles [3.7423057093584005]
本研究は,自律走行車(AV)における交通標識分類のためのGAN(Generative Adversarial Network)に基づく防衛手法を開発した。
AR-GANの新規性は、(i)敵の攻撃モデルとサンプルの知識をゼロと仮定し、(ii)敵の攻撃タイプで一貫して高いトラフィックサイン分類性能を提供する。
論文 参考訳(メタデータ) (2023-12-31T21:49:03Z) - Explainable and Trustworthy Traffic Sign Detection for Safe Autonomous
Driving: An Inductive Logic Programming Approach [0.0]
自動走行車における停止信号検出のためのILPに基づくアプローチを提案する。
それは人間のような知覚を模倣するため、敵の攻撃に対してより堅牢である。
PR2やADvCamの攻撃があっても、標的とするすべての停止標識を正しく識別することができる。
論文 参考訳(メタデータ) (2023-08-30T09:05:52Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - A Hybrid Defense Method against Adversarial Attacks on Traffic Sign
Classifiers in Autonomous Vehicles [4.585587646404074]
敵対的攻撃は、ディープニューラルネットワーク(DNN)モデルに、自動運転車(AV)の誤った出力ラベルを予測させる。
本研究では,ハイブリッドディフェンス方式を用いたAV用レジリエントトラフィックサイン分類器を開発した。
本手法は, 攻撃シナリオの平均交通標識分類精度が99%, 攻撃シナリオの平均交通標識分類精度が88%であることを示す。
論文 参考訳(メタデータ) (2022-04-25T02:13:31Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。