論文の概要: Backdoor Attacks against Hybrid Classical-Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2407.16273v1
- Date: Tue, 23 Jul 2024 08:25:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 18:06:10.928301
- Title: Backdoor Attacks against Hybrid Classical-Quantum Neural Networks
- Title(参考訳): ハイブリッド古典量子ニューラルネットワークに対するバックドア攻撃
- Authors: Ji Guo, Wenbo Jiang, Rui Zhang, Wenshu Fan, Jiachen Li, Guoming Lu,
- Abstract要約: ハイブリッド量子ニューラルネットワーク(HQNN)は量子機械学習(QML)における将来性を示す
HQNNに対するバックドア攻撃に関する最初の体系的研究について述べる。
- 参考スコア(独自算出の注目度): 11.581538622210896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hybrid Quantum Neural Networks (HQNNs) represent a promising advancement in Quantum Machine Learning (QML), yet their security has been rarely explored. In this paper, we present the first systematic study of backdoor attacks on HQNNs. We begin by proposing an attack framework and providing a theoretical analysis of the generalization bounds and minimum perturbation requirements for backdoor attacks on HQNNs. Next, we employ two classic backdoor attack methods on HQNNs and Convolutional Neural Networks (CNNs) to further investigate the robustness of HQNNs. Our experimental results demonstrate that HQNNs are more robust than CNNs, requiring more significant image modifications for successful attacks. Additionally, we introduce the Qcolor backdoor, which utilizes color shifts as triggers and employs the Non-dominated Sorting Genetic Algorithm II (NSGA-II) to optimize hyperparameters. Through extensive experiments, we demonstrate the effectiveness, stealthiness, and robustness of the Qcolor backdoor.
- Abstract(参考訳): ハイブリッド量子ニューラルネットワーク(HQNN)は、量子機械学習(QML)の有望な進歩を示すものだが、そのセキュリティはめったに調査されていない。
本稿では,HQNNに対するバックドア攻撃に関する最初の体系的研究について述べる。
我々はまず,HQNNに対するバックドア攻撃に対して,攻撃フレームワークを提案し,一般化境界と最小摂動条件を理論的に解析することから始める。
次に、HQNN と Convolutional Neural Networks (CNN) の2つの古典的なバックドア攻撃手法を用いて、HQNN の堅牢性をさらに調査する。
実験の結果,HQNNはCNNよりも堅牢であり,攻撃を成功させるためには画像修正が必要であった。
さらに、カラーシフトをトリガーとして利用し、非支配的ソーティング遺伝的アルゴリズムII(NSGA-II)を用いてハイパーパラメーターを最適化するQcolorバックドアを導入する。
広範にわたる実験を通して、我々はQcolorバックドアの有効性、ステルス性、堅牢性を実証した。
関連論文リスト
- Data Poisoning-based Backdoor Attack Framework against Supervised Learning Rules of Spiking Neural Networks [3.9444202574850755]
スパイキングニューラルネットワーク(SNN)は、低エネルギー消費と高ロバスト性で知られている。
本稿では,バックドア攻撃時の教師付き学習規則により訓練されたSNNの堅牢性について検討する。
論文 参考訳(メタデータ) (2024-09-24T02:15:19Z) - Rethinking Pruning for Backdoor Mitigation: An Optimization Perspective [19.564985801521814]
バックドアモデルの修復に,グラフニューラルネットワーク(GNN)と強化学習(RL)を併用したONP(Optimized Neuron Pruning)法を提案する。
少量のクリーンデータにより、ONPは、無視可能な性能劣化を犠牲にして、バックドアアタックによって埋め込まれたバックドアニューロンを効果的にプルークすることができる。
論文 参考訳(メタデータ) (2024-05-28T01:59:06Z) - AdvQuNN: A Methodology for Analyzing the Adversarial Robustness of Quanvolutional Neural Networks [3.9554540293311864]
本研究の目的は、量子回路アーキテクチャがQuNNモデルのレジリエンスに与える影響を厳格に評価することである。
その結果、従来の畳み込みネットワークと比較して、QuNNはMNISTでは最大60%、FMNISTデータセットでは40%高いロバスト性を達成できた。
論文 参考訳(メタデータ) (2024-03-07T12:30:40Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - QDoor: Exploiting Approximate Synthesis for Backdoor Attacks in Quantum
Neural Networks [7.191064733894878]
量子ニューラルネットワーク(QNN)は、オブジェクト認識、自然言語処理、財務分析に成功している。
近似合成は、エラーを起こしやすい2量子ビット量子ゲートを減らすことでQNN回路を変更する。
ほぼ合成されたQNN回路において高い攻撃成功率を達成するために,新規でステルスなバックドア攻撃であるQDoorを提案する。
論文 参考訳(メタデータ) (2023-07-13T18:26:19Z) - Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Explainability-based Backdoor Attacks Against Graph Neural Networks [9.179577599489559]
ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-08T10:43:40Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。