論文の概要: Experimental robustness benchmark of quantum neural network on a superconducting quantum processor
- arxiv url: http://arxiv.org/abs/2505.16714v1
- Date: Thu, 22 May 2025 14:18:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.354326
- Title: Experimental robustness benchmark of quantum neural network on a superconducting quantum processor
- Title(参考訳): 超伝導量子プロセッサを用いた量子ニューラルネットワークの実験ロバストネスベンチマーク
- Authors: Hai-Feng Zhang, Zhao-Yun Chen, Peng Wang, Liang-Liang Guo, Tian-Le Wang, Xiao-Yan Yang, Ren-Ze Zhao, Ze-An Zhao, Sheng Zhang, Lei Du, Hao-Ran Tao, Zhi-Long Jia, Wei-Cheng Kong, Huan-Yu Liu, Athanasios V. Vasilakos, Yang Yang, Yu-Chun Wu, Ji Guan, Peng Duan, Guo-Ping Guo,
- Abstract要約: 量子機械学習(QML)モデルは、従来のモデルと同様、敵攻撃に対して脆弱であり、セキュアなデプロイメントを妨げる。
ここでは、20量子ビット量子ニューラルネットワーク(QNN)の最初の系統的実験ロバスト性ベンチマークを報告する。
我々のベンチマークフレームワークは、QNN向けに設計された効率的な対向攻撃アルゴリズムを備えており、対向ロバスト性とロバスト性境界の定量的評価を可能にする。
- 参考スコア(独自算出の注目度): 14.38187281782993
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Quantum machine learning (QML) models, like their classical counterparts, are vulnerable to adversarial attacks, hindering their secure deployment. Here, we report the first systematic experimental robustness benchmark for 20-qubit quantum neural network (QNN) classifiers executed on a superconducting processor. Our benchmarking framework features an efficient adversarial attack algorithm designed for QNNs, enabling quantitative characterization of adversarial robustness and robustness bounds. From our analysis, we verify that adversarial training reduces sensitivity to targeted perturbations by regularizing input gradients, significantly enhancing QNN's robustness. Additionally, our analysis reveals that QNNs exhibit superior adversarial robustness compared to classical neural networks, an advantage attributed to inherent quantum noise. Furthermore, the empirical upper bound extracted from our attack experiments shows a minimal deviation ($3 \times 10^{-3}$) from the theoretical lower bound, providing strong experimental confirmation of the attack's effectiveness and the tightness of fidelity-based robustness bounds. This work establishes a critical experimental framework for assessing and improving quantum adversarial robustness, paving the way for secure and reliable QML applications.
- Abstract(参考訳): 量子機械学習(QML)モデルは、従来のモデルと同様、敵攻撃に対して脆弱であり、セキュアなデプロイメントを妨げる。
本稿では,超伝導プロセッサ上で実行される20量子ビット量子ニューラルネットワーク(QNN)分類器に対する,最初の系統的実験ロバスト性ベンチマークについて報告する。
我々のベンチマークフレームワークは、QNN向けに設計された効率的な対向攻撃アルゴリズムを備えており、対向ロバスト性とロバスト性境界の定量的評価を可能にする。
本分析から,QNNの強靭性を著しく向上させ,入力勾配を正規化することにより,対向的トレーニングが目標摂動に対する感度を低下させることを確認した。
さらに,本分析の結果から,QNNは従来のニューラルネットワークに比べて高い対角性を示すことが明らかとなった。
さらに, 攻撃実験から抽出した経験的上界は, 理論的下界から最小限のずれ (3 \times 10^{-3}$) を示し, 攻撃の有効性と忠実度に基づく頑健性の境界の厳密性について実験的に検証した。
この研究は、量子対逆ロバスト性の評価と改善のための重要な実験フレームワークを確立し、セキュアで信頼性の高いQMLアプリケーションへの道を開いた。
関連論文リスト
- RobQuNNs: A Methodology for Robust Quanvolutional Neural Networks against Adversarial Attacks [3.9554540293311864]
Quanvolutional Neural Networks (QuNN) は量子層と古典層を統合している。
本研究は,QuNNの敵攻撃に対する堅牢性を高める新しい手法であるRobQuNNを紹介する。
その結果、QuNNはMNISTデータセットの古典的ネットワークに比べて最大60%高いロバスト性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-04T12:13:52Z) - QuanTest: Entanglement-Guided Testing of Quantum Neural Network Systems [45.18451374144537]
量子ニューラルネットワーク(QNN)は、ディープラーニング(DL)原理と量子力学の基本理論を組み合わせて、量子加速による機械学習タスクを実現する。
QNNシステムは従来の量子ソフトウェアと古典的なDLシステムとは大きく異なり、QNNテストにとって重要な課題となっている。
QNNシステムにおける潜在的誤動作を明らかにするために,量子絡み合い誘導型対向テストフレームワークであるQuanTestを提案する。
論文 参考訳(メタデータ) (2024-02-20T12:11:28Z) - Neural Quantum Embedding: Pushing the Limits of Quantum Supervised Learning [0.40964539027092917]
本稿では, 量子埋め込みの最適化手法であるNeural Quantum Embedding(NQE)について述べる。
NQEは経験的リスクの低いバウンダリを強化し、分類性能を大幅に改善する。
論文 参考訳(メタデータ) (2023-11-19T19:58:33Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - A Layer-wise Adversarial-aware Quantization Optimization for Improving
Robustness [4.794745827538956]
逆向きに学習したニューラルネットワークは、通常のモデルよりも量子化損失に対して脆弱であることがわかった。
ニューラルネットワークの最適量子化パラメータ設定を選択するために,Lipschitz定数を用いた層ワイド逆アウェア量子化法を提案する。
実験結果から,本手法は,量子化逆学習ニューラルネットワークのロバスト性を効果的かつ効果的に向上できることが示された。
論文 参考訳(メタデータ) (2021-10-23T22:11:30Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - QUANOS- Adversarial Noise Sensitivity Driven Hybrid Quantization of
Neural Networks [3.2242513084255036]
QUINOSは、逆雑音感度(ANS)に基づく層特異的ハイブリッド量子化を行うフレームワークである
CIFAR10, CIFAR100データセットを用いた実験により, QUINOSは対向ロバスト性の観点から, 均一に量子化された8ビット精度のベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2020-04-22T15:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。