論文の概要: Quantum Computing Supported Adversarial Attack-Resilient Autonomous Vehicle Perception Module for Traffic Sign Classification
- arxiv url: http://arxiv.org/abs/2504.12644v1
- Date: Thu, 17 Apr 2025 05:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:39:36.411094
- Title: Quantum Computing Supported Adversarial Attack-Resilient Autonomous Vehicle Perception Module for Traffic Sign Classification
- Title(参考訳): トラヒックサイン分類のための対向攻撃耐性自律車両知覚モジュールの量子コンピューティング支援
- Authors: Reek Majumder, Mashrur Chowdhury, Sakib Mahmud Khan, Zadid Khan, Fahim Ahmad, Frank Ngeni, Gurcan Comert, Judith Mwakalonge, Dimitra Michalaka,
- Abstract要約: 古典的量子深層学習(HCQ-DL)モデルと古典的深層学習(C-DL)モデルの作成と比較を行う。
HCQ-DLモデルで1000以上の量子回路を試験し、投影勾配降下(PGD)、高速勾配標識攻撃(FGSA)、勾配攻撃(GA)を行った。
HCQ-DLモデルは無攻撃シナリオにおいて95%以上の精度を維持し,C-DLモデルよりも高いGAおよびFGSA攻撃では91%以上である。
- 参考スコア(独自算出の注目度): 6.9747130929573276
- License:
- Abstract: Deep learning (DL)-based image classification models are essential for autonomous vehicle (AV) perception modules since incorrect categorization might have severe repercussions. Adversarial attacks are widely studied cyberattacks that can lead DL models to predict inaccurate output, such as incorrectly classified traffic signs by the perception module of an autonomous vehicle. In this study, we create and compare hybrid classical-quantum deep learning (HCQ-DL) models with classical deep learning (C-DL) models to demonstrate robustness against adversarial attacks for perception modules. Before feeding them into the quantum system, we used transfer learning models, alexnet and vgg-16, as feature extractors. We tested over 1000 quantum circuits in our HCQ-DL models for projected gradient descent (PGD), fast gradient sign attack (FGSA), and gradient attack (GA), which are three well-known untargeted adversarial approaches. We evaluated the performance of all models during adversarial attacks and no-attack scenarios. Our HCQ-DL models maintain accuracy above 95\% during a no-attack scenario and above 91\% for GA and FGSA attacks, which is higher than C-DL models. During the PGD attack, our alexnet-based HCQ-DL model maintained an accuracy of 85\% compared to C-DL models that achieved accuracies below 21\%. Our results highlight that the HCQ-DL models provide improved accuracy for traffic sign classification under adversarial settings compared to their classical counterparts.
- Abstract(参考訳): 深層学習(DL)に基づく画像分類モデルは、誤分類が深刻な影響をもたらす可能性があるため、自律走行車(AV)知覚モジュールに不可欠である。
敵対的攻撃は広く研究されているサイバー攻撃であり、自動運転車の認識モジュールによって誤って分類された交通標識などの不正確な出力を予測するためにDLモデルを導くことができる。
本研究では,古典的量子深層学習(HCQ-DL)モデルと古典的深層学習(C-DL)モデルとのハイブリッドな古典的量子深層学習(HCQ-DL)モデルの作成と比較を行った。
量子システムに投入する前に、私たちは特徴抽出器として転送学習モデル、Alexnetとvgg-16を使用しました。
我々はHCQ-DLモデルで1000以上の量子回路を試験し、投影勾配降下(PGD)、高速勾配標識攻撃(FGSA)、および3つのよく知られた非目標対向アプローチである勾配攻撃(GA)について検討した。
敵攻撃および無攻撃シナリオにおける全モデルの性能評価を行った。
HCQ-DLモデルは,無攻撃シナリオにおいて95%以上,GAおよびFGSA攻撃では91%以上,C-DLモデルよりも高い精度を維持している。
PGD攻撃中,アレクサネットをベースとしたHCQ-DLモデルでは,C-DLモデルが21-%未満の精度であったのに対し,HCQ-DLモデルは85-%の精度を維持した。
その結果,HCQ-DLモデルでは,従来のモデルに比べて,対角的条件下での交通標識分類の精度が向上していることがわかった。
関連論文リスト
- Robustness of Selected Learning Models under Label-Flipping Attack [1.3812010983144798]
ラベルフリップに基づく敵攻撃を受けた場合、マルウェアデータセット上で訓練された従来の機械学習モデルとディープラーニングモデルを比較した。
敵攻撃に対して試験したモデルのロバスト性は,初期精度とロバスト性の両方を最大限に組み合わせたモデルで広範囲に変動することがわかった。
論文 参考訳(メタデータ) (2025-01-21T22:00:54Z) - A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - A Curious Case of Remarkable Resilience to Gradient Attacks via Fully
Convolutional and Differentiable Front End with a Skip Connection [5.030787492485122]
勾配マスキングは新しい現象ではありませんが、マスキングの程度は、完全に微分可能なモデルにとって非常に顕著でした。
ブラックボックス攻撃は勾配マスキングに対して部分的に有効であるが、モデルとランダムなアンサンブルを組み合わせることで容易に打ち負かされる。
論文 参考訳(メタデータ) (2024-02-26T20:55:47Z) - Pre-trained Model Guided Fine-Tuning for Zero-Shot Adversarial Robustness [52.9493817508055]
我々は,モデルがゼロショットの逆方向のロバスト性を高めるために,事前訓練されたモデル誘導逆方向の微調整(PMG-AFT)を提案する。
私たちのアプローチは、平均8.72%のクリーンな精度を継続的に改善します。
論文 参考訳(メタデータ) (2024-01-09T04:33:03Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z) - Lagrangian Objective Function Leads to Improved Unforeseen Attack
Generalization in Adversarial Training [0.0]
対人訓練(AT)は、訓練中に使用される攻撃に対して堅牢なモデルに到達するのに有効であることが示されている。
我々は、上記の問題を緩和する簡易なAT修正を提案する。
我々は,攻撃の一般化を意図した他の攻撃手法よりも,攻撃速度が速いことを示す。
論文 参考訳(メタデータ) (2021-03-29T07:23:46Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Frequency-based Automated Modulation Classification in the Presence of
Adversaries [17.930854969511046]
本稿では、転送可能な対角干渉に耐えられるディープラーニングモデルからなる新しい受信アーキテクチャを提案する。
本研究では、リカレントニューラルネットワーク(RNN)では30%以上、畳み込みニューラルネットワーク(CNN)では50%以上の性能向上を示す。
論文 参考訳(メタデータ) (2020-11-02T17:12:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。