論文の概要: A Hybrid Defense Method against Adversarial Attacks on Traffic Sign
Classifiers in Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2205.01225v1
- Date: Mon, 25 Apr 2022 02:13:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-08 23:38:25.122180
- Title: A Hybrid Defense Method against Adversarial Attacks on Traffic Sign
Classifiers in Autonomous Vehicles
- Title(参考訳): 自動車の交通標識分類器に対する敵攻撃に対するハイブリッド防御法
- Authors: Zadid Khan, Mashrur Chowdhury, Sakib Mahmud Khan
- Abstract要約: 敵対的攻撃は、ディープニューラルネットワーク(DNN)モデルに、自動運転車(AV)の誤った出力ラベルを予測させる。
本研究では,ハイブリッドディフェンス方式を用いたAV用レジリエントトラフィックサイン分類器を開発した。
本手法は, 攻撃シナリオの平均交通標識分類精度が99%, 攻撃シナリオの平均交通標識分類精度が88%であることを示す。
- 参考スコア(独自算出の注目度): 4.585587646404074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks can make deep neural network (DNN) models predict
incorrect output labels, such as misclassified traffic signs, for autonomous
vehicle (AV) perception modules. Resilience against adversarial attacks can
help AVs navigate safely on the road by avoiding misclassication of signs or
objects. This DNN-based study develops a resilient traffic sign classifier for
AVs that uses a hybrid defense method. We use transfer learning to retrain the
Inception-V3 and Resnet-152 models as traffic sign classifiers. This method
also utilizes a combination of three different strategies: random filtering,
ensembling, and local feature mapping. We use the random cropping and resizing
technique for random filtering, plurality voting as ensembling strategy and an
optical character recognition model as a local feature mapper. This DNN-based
hybrid defense method has been tested for the no attack scenario and against
well-known untargeted adversarial attacks (e.g., Projected Gradient Descent or
PGD, Fast Gradient Sign Method or FGSM, Momentum Iterative Method or MIM
attack, and Carlini and Wagner or C&W). We find that our hybrid defense method
achieves 99% average traffic sign classification accuracy for the no attack
scenario and 88% average traffic sign classification accuracy for all attack
scenarios. Moreover, the hybrid defense method, presented in this study,
improves the accuracy for traffic sign classification compared to the
traditional defense methods (i.e., JPEG filtering, feature squeezing, binary
filtering, and random filtering) up to 6%, 50%, and 55% for FGSM, MIM, and PGD
attacks, respectively.
- Abstract(参考訳): 敵対的攻撃により、ディープニューラルネットワーク(DNN)モデルは、自動運転車(AV)知覚モジュールの誤分類交通標識などの誤った出力ラベルを予測することができる。
逆境攻撃に対するレジリエンスは、サインやオブジェクトの誤分類を避けることによって、avが安全に道路を航行するのに役立つ。
このdnnに基づく研究は、ハイブリッド防御法を用いたavsのレジリエントなトラヒックサイン分類器を開発した。
Inception-V3 と Resnet-152 モデルをトラヒック記号分類器として再訓練するために転送学習を利用する。
この手法はまた、ランダムフィルタリング、アンサンブル、局所特徴マッピングの3つの異なる戦略の組み合わせを利用する。
ランダム・クロッピング・リサイズ手法を用いてランダムフィルタリングを行い,複数の投票をセンシング戦略として,光学的文字認識モデルを局所的特徴マッパーとして用いる。
このdnnベースのハイブリッド防御法は、no攻撃シナリオとよく知られた非標的攻撃(例えば、投影勾配降下またはpgd、高速勾配符号法またはfgsm、運動量反復法またはmim攻撃、carlini、wagnerまたはc&w)に対してテストされている。
本手法は, 攻撃シナリオの平均交通標識分類精度が99%, 攻撃シナリオの平均交通標識分類精度が88%であることを示す。
さらに,本研究では, FGSM, MIM, PGD攻撃において, 従来の防御手法(JPEGフィルタリング, 特徴スクイーズ, バイナリフィルタリング, ランダムフィルタリング)と比較して, FGSM, MIM, PGD攻撃では最大6%, 50%, 55%のトラフィックサイン分類精度を向上する。
関連論文リスト
- A Hybrid Quantum-Classical AI-Based Detection Strategy for Generative Adversarial Network-Based Deepfake Attacks on an Autonomous Vehicle Traffic Sign Classification System [2.962613983209398]
著者らは、AV信号の分類システムを騙すために、生成的敵ネットワークベースのディープフェイク攻撃をいかに構築できるかを提示する。
彼らは、ハイブリッド量子古典ニューラルネットワーク(NN)を活用したディープフェイクトラフィックサイン画像検出戦略を開発した。
その結果、ディープフェイク検出のためのハイブリッド量子古典的NNは、ほとんどの場合、ベースラインの古典的畳み込みNNと似た、あるいは高い性能が得られることが示唆された。
論文 参考訳(メタデータ) (2024-09-25T19:44:56Z) - Explainable and Trustworthy Traffic Sign Detection for Safe Autonomous
Driving: An Inductive Logic Programming Approach [0.0]
自動走行車における停止信号検出のためのILPに基づくアプローチを提案する。
それは人間のような知覚を模倣するため、敵の攻撃に対してより堅牢である。
PR2やADvCamの攻撃があっても、標的とするすべての停止標識を正しく識別することができる。
論文 参考訳(メタデータ) (2023-08-30T09:05:52Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - Using Anomaly Feature Vectors for Detecting, Classifying and Warning of
Outlier Adversarial Examples [4.096598295525345]
分類ニューラルネットワークに提示される敵入力を検出し,分類し,警告するシステムであるDeClaWについて述べる。
予備的な発見は、AFVがCIFAR-10データセット上で93%近い精度で、いくつかの種類の敵攻撃を区別するのに役立つことを示唆している。
論文 参考訳(メタデータ) (2021-07-01T16:00:09Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。