論文の概要: SQUASH: A SWAP-Based Quantum Attack to Sabotage Hybrid Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2506.24081v1
- Date: Mon, 30 Jun 2025 17:36:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.173988
- Title: SQUASH: A SWAP-Based Quantum Attack to Sabotage Hybrid Quantum Neural Networks
- Title(参考訳): SquaSH:ハイブリッド量子ニューラルネットワークを妨害するSWAPベースの量子攻撃
- Authors: Rahul Kumar, Wenqi Wei, Ying Mao, Junaid Farooq, Ying Wang, Juntao Chen,
- Abstract要約: 本稿では、分類タスクのためのハイブリッド量子ニューラルネットワーク(HQNN)を妨害する回路レベル攻撃を提案する。
SquaSHは、SWAPゲートを被害者HQNNの変動量子回路に挿入することで実行される。
SQUASHは分類性能を著しく低下させ,未目標のSWAP攻撃は74.08%,目標のSWAP攻撃は79.78%に低下した。
- 参考スコア(独自算出の注目度): 12.479466545032919
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a circuit-level attack, SQUASH, a SWAP-Based Quantum Attack to sabotage Hybrid Quantum Neural Networks (HQNNs) for classification tasks. SQUASH is executed by inserting SWAP gate(s) into the variational quantum circuit of the victim HQNN. Unlike conventional noise-based or adversarial input attacks, SQUASH directly manipulates the circuit structure, leading to qubit misalignment and disrupting quantum state evolution. This attack is highly stealthy, as it does not require access to training data or introduce detectable perturbations in input states. Our results demonstrate that SQUASH significantly degrades classification performance, with untargeted SWAP attacks reducing accuracy by up to 74.08\% and targeted SWAP attacks reducing target class accuracy by up to 79.78\%. These findings reveal a critical vulnerability in HQNN implementations, underscoring the need for more resilient architectures against circuit-level adversarial interventions.
- Abstract(参考訳): 本稿では、SWAPベースの量子攻撃であるSQUASHを用いて、分類タスクのためのハイブリッド量子ニューラルネットワーク(HQNN)を妨害する手法を提案する。
SquaSHは、SWAPゲートを被害者HQNNの変動量子回路に挿入することで実行される。
従来のノイズベースや逆入力攻撃とは異なり、SQUASHは直接回路構造を操作し、量子ビットのミスアライメントと量子状態の進化を妨害する。
この攻撃は、トレーニングデータにアクセスしたり、入力状態に検出可能な摂動を導入する必要がないため、非常にステルス性が高い。
その結果、SQUASHは分類性能を著しく低下させ、未目標のSWAP攻撃は74.08倍まで精度を低下させ、標的のSWAP攻撃は79.78倍まで精度を低下させることがわかった。
これらの結果はHQNN実装に重大な脆弱性があることを示し、回路レベルの敵の介入に対してよりレジリエントなアーキテクチャの必要性を浮き彫りにした。
関連論文リスト
- Adversarial Threats in Quantum Machine Learning: A Survey of Attacks and Defenses [2.089191490381739]
量子機械学習(QML)は、量子コンピューティングと古典的な機械学習を統合して、分類、回帰、生成タスクを解決する。
本章では、クラウドベースのデプロイメント、ハイブリッドアーキテクチャ、量子生成モデルにおける脆弱性に焦点を当て、QMLシステム特有の敵の脅威について検討する。
論文 参考訳(メタデータ) (2025-06-27T01:19:49Z) - Fooling the Decoder: An Adversarial Attack on Quantum Error Correction [49.48516314472825]
本研究では,基本的なRL曲面符号デコーダ(DeepQ)を目標とし,量子誤り訂正に対する最初の逆攻撃を生成する。
メモリ実験における論理量子ビット寿命を最大5桁まで短縮する攻撃を実証する。
この攻撃は、機械学習ベースのQECの感受性を強調し、堅牢なQEC手法に関するさらなる研究の重要性を強調している。
論文 参考訳(メタデータ) (2025-04-28T10:10:05Z) - Classical Autoencoder Distillation of Quantum Adversarial Manipulations [1.4598877063396687]
本稿では,古典的オートエンコーダを用いた量子演算画像データセットの蒸留技術について報告する。
我々の研究は、古典的シナリオと量子的シナリオの両方において、完全に堅牢な量子機械学習を実現するための有望な経路を強調している。
論文 参考訳(メタデータ) (2025-04-12T13:51:08Z) - SWAP Attack: Stealthy Side-Channel Attack on Multi-Tenant Quantum Cloud System [3.4804333771236875]
共有量子デバイス上のクロストークにより、敵は近隣の被害者回路を妨害することができる。
SWAPベースのサイドチャネル攻撃は、実際のIBM量子デバイスで検証されているように、アクティブモードとパッシブモードの両方で動作することを示す。
我々の研究は、出現する脅威に対して量子計算を保護するための堅牢なセキュリティ対策の緊急の必要性を強調している。
論文 参考訳(メタデータ) (2025-02-14T12:25:08Z) - Mitigation of Channel Tampering Attacks in Continuous-Variable Quantum Key Distribution [8.840486611542584]
CV-QKDでは、Denial-of-Service(DoS)攻撃を利用する潜在的な敵から通信妨害に対する脆弱性が持続する。
本稿では,DoS攻撃に触発されたCV-QKDにおいて,Channel Amplification (CA)攻撃と呼ばれる新たな脅威を導入する。
この脅威に対処するため,我々は検出・緩和戦略を提案する。
論文 参考訳(メタデータ) (2024-01-29T05:48:51Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。