論文の概要: AR-GAN: Generative Adversarial Network-Based Defense Method Against
Adversarial Attacks on the Traffic Sign Classification System of Autonomous
Vehicles
- arxiv url: http://arxiv.org/abs/2401.14232v1
- Date: Sun, 31 Dec 2023 21:49:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-28 15:34:03.225970
- Title: AR-GAN: Generative Adversarial Network-Based Defense Method Against
Adversarial Attacks on the Traffic Sign Classification System of Autonomous
Vehicles
- Title(参考訳): AR-GAN: 自動車の交通標識分類システムにおける敵攻撃に対する生成的敵ネットワークベース防御手法
- Authors: M Sabbir Salek, Abdullah Al Mamun, and Mashrur Chowdhury
- Abstract要約: 本研究は,自律走行車(AV)における交通標識分類のためのGAN(Generative Adversarial Network)に基づく防衛手法を開発した。
AR-GANの新規性は、(i)敵の攻撃モデルとサンプルの知識をゼロと仮定し、(ii)敵の攻撃タイプで一貫して高いトラフィックサイン分類性能を提供する。
- 参考スコア(独自算出の注目度): 3.7423057093584005
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study developed a generative adversarial network (GAN)-based defense
method for traffic sign classification in an autonomous vehicle (AV), referred
to as the attack-resilient GAN (AR-GAN). The novelty of the AR-GAN lies in (i)
assuming zero knowledge of adversarial attack models and samples and (ii)
providing consistently high traffic sign classification performance under
various adversarial attack types. The AR-GAN classification system consists of
a generator that denoises an image by reconstruction, and a classifier that
classifies the reconstructed image. The authors have tested the AR-GAN under
no-attack and under various adversarial attacks, such as Fast Gradient Sign
Method (FGSM), DeepFool, Carlini and Wagner (C&W), and Projected Gradient
Descent (PGD). The authors considered two forms of these attacks, i.e., (i)
black-box attacks (assuming the attackers possess no prior knowledge of the
classifier), and (ii) white-box attacks (assuming the attackers possess full
knowledge of the classifier). The classification performance of the AR-GAN was
compared with several benchmark adversarial defense methods. The results showed
that both the AR-GAN and the benchmark defense methods are resilient against
black-box attacks and could achieve similar classification performance to that
of the unperturbed images. However, for all the white-box attacks considered in
this study, the AR-GAN method outperformed the benchmark defense methods. In
addition, the AR-GAN was able to maintain its high classification performance
under varied white-box adversarial perturbation magnitudes, whereas the
performance of the other defense methods dropped abruptly at increased
perturbation magnitudes.
- Abstract(参考訳): 本研究では,自律走行車(AV)における交通標識分類のためのGAN(Generative Adversarial Network)に基づく防衛手法を開発した。
AR-GANの新規性
(i)敵の攻撃モデル及びサンプルの知識がゼロであると仮定する。
(II) 様々な攻撃種別で一貫した高い交通標識分類性能を提供する。
AR-GAN分類システムは、再構成によって画像を識別するジェネレータと、再構成された画像を分類する分類器で構成される。
著者らはAR-GANを無攻撃でテストし、FGSM(Fast Gradient Sign Method)、DeepFool(DeepFool)、Carini and Wagner(C&W)、Projected Gradient Descent(PGD)といった様々な敵攻撃を受けた。
著者らはこれらの攻撃の2つの形態、すなわち
(i)ブラックボックス攻撃(攻撃者が分類器の事前の知識を持っていなければ)
(ii)ホワイトボックス攻撃(攻撃者が分類器の完全な知識を持っている場合)。
ar-ganの分類性能は,いくつかの対向防御法と比較した。
その結果,AR-GANとベンチマーク防御手法はブラックボックス攻撃に対して耐性があり,非摂動画像と同様の分類性能が得られることがわかった。
しかし,本研究では,すべてのホワイトボックス攻撃に対して,AR-GAN法がベンチマーク防御法より優れていた。
さらに、AR-GANは、様々なホワイトボックスの対向摂動の程度で高い分類性能を維持することができたが、他の防御法の性能は摂動の程度が大きくなると突然低下した。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Universal Detection of Backdoor Attacks via Density-based Clustering and
Centroids Analysis [24.953032059932525]
クラスタリングとセントロイド分析(CCA-UD)に基づくバックドア攻撃に対するユニバーサルディフェンスを提案する。
防御の目的は、ディープラーニングモデルがトレーニングデータセットを検査することでバックドア攻撃の対象になるかどうかを明らかにすることである。
論文 参考訳(メタデータ) (2023-01-11T16:31:38Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - A Hybrid Defense Method against Adversarial Attacks on Traffic Sign
Classifiers in Autonomous Vehicles [4.585587646404074]
敵対的攻撃は、ディープニューラルネットワーク(DNN)モデルに、自動運転車(AV)の誤った出力ラベルを予測させる。
本研究では,ハイブリッドディフェンス方式を用いたAV用レジリエントトラフィックサイン分類器を開発した。
本手法は, 攻撃シナリオの平均交通標識分類精度が99%, 攻撃シナリオの平均交通標識分類精度が88%であることを示す。
論文 参考訳(メタデータ) (2022-04-25T02:13:31Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。