論文の概要: CopyQNN: Quantum Neural Network Extraction Attack under Varying Quantum Noise
- arxiv url: http://arxiv.org/abs/2504.00366v1
- Date: Tue, 01 Apr 2025 02:30:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:24:54.491707
- Title: CopyQNN: Quantum Neural Network Extraction Attack under Varying Quantum Noise
- Title(参考訳): CopyQNN: 量子ノイズ下での量子ニューラルネットワーク抽出攻撃
- Authors: Zhenxiao Fu, Leyi Zhao, Xuhong Zhang, Yilun Xu, Gang Huang, Fan Chen,
- Abstract要約: 量子ニューラルネットワーク(QNN)は、ドメイン間で大きな価値を示し、よく訓練されたQNNは重要な知的特性を表す。
最近の研究は、古典的および新しい量子戦略を用いたQNNモデル抽出攻撃について検討している。
これらの攻撃は、ローカル代替QNNをトレーニングするためのラベル付きデータを取得するために、QNNプラットフォームに問い合わせることを含む。
ノイズ感度に基づいてノイズデータを除去する3段階データクリーニング手法であるCopyQNNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.778725484246111
- License:
- Abstract: Quantum Neural Networks (QNNs) have shown significant value across domains, with well-trained QNNs representing critical intellectual property often deployed via cloud-based QNN-as-a-Service (QNNaaS) platforms. Recent work has examined QNN model extraction attacks using classical and emerging quantum strategies. These attacks involve adversaries querying QNNaaS platforms to obtain labeled data for training local substitute QNNs that replicate the functionality of cloud-based models. However, existing approaches have largely overlooked the impact of varying quantum noise inherent in noisy intermediate-scale quantum (NISQ) computers, limiting their effectiveness in real-world settings. To address this limitation, we propose the CopyQNN framework, which employs a three-step data cleaning method to eliminate noisy data based on its noise sensitivity. This is followed by the integration of contrastive and transfer learning within the quantum domain, enabling efficient training of substitute QNNs using a limited but cleaned set of queried data. Experimental results on NISQ computers demonstrate that a practical implementation of CopyQNN significantly outperforms state-of-the-art QNN extraction attacks, achieving an average performance improvement of 8.73% across all tasks while reducing the number of required queries by 90x, with only a modest increase in hardware overhead.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)はドメイン間で大きな価値を示しており、よく訓練されたQNNは、クラウドベースのQNN-as-a-Service(QNNaaS)プラットフォームを通じてしばしばデプロイされる重要な知的財産を表している。
最近の研究は、古典的および新しい量子戦略を用いたQNNモデル抽出攻撃について検討している。
これらの攻撃は、クラウドベースのモデルの機能を複製するローカル代替QNNをトレーニングするためのラベル付きデータを取得するために、QNNaaSプラットフォームに問い合わせることを含む。
しかし、既存のアプローチは、ノイズの多い中間スケール量子(NISQ)コンピュータに固有の様々な量子ノイズの影響をおおむね見落としており、現実の環境での有効性を制限している。
この制限に対処するため,ノイズ感度に基づいてノイズを除去する3段階データクリーニング手法であるCopyQNNフレームワークを提案する。
これに続いて、量子領域内でのコントラスト学習とトランスファー学習の統合が実現され、限定的だがクリーンなクエリデータを使用した代用QNNの効率的なトレーニングが可能になる。
NISQコンピュータの実験結果によると、CopyQNNの実践的な実装は最先端のQNN抽出攻撃を著しく上回り、必要なクエリ数を90倍に削減し、ハードウェアオーバーヘッドをわずかに増加させながら、全てのタスクで平均8.73%の性能向上を実現している。
関連論文リスト
- A Coverage-Guided Testing Framework for Quantum Neural Networks [1.7101498519540597]
量子ニューラルネットワーク(QNN)は、量子コンピューティングとニューラルネットワークを組み合わせて機械学習モデルを改善する。
本稿では,QNNの状態探索を体系的に評価するために,QNNを対象としたテストカバレッジ基準のセットであるQCovを提案する。
論文 参考訳(メタデータ) (2024-11-03T08:07:27Z) - A Post-Training Approach for Mitigating Overfitting in Quantum
Convolutional Neural Networks [0.24578723416255752]
量子畳み込みニューラルネットワーク(QCNN)におけるオーバーフィッティング軽減のためのポストトレーニング手法の検討
古典的なポストトレーニング手法であるニューロトン・ドロップアウトの量子設定への直接的な適応は、QCNNの成功確率を著しく低下させる。
我々は、この効果がQCNNにおける絡み合いの重要な役割と、QCNNの絡み合い損失に対する脆弱性を明らかにすることを論じる。
論文 参考訳(メタデータ) (2023-09-04T21:46:24Z) - A Quantum Convolutional Neural Network Approach for Object Detection and
Classification [0.0]
QCNNの時間と精度は、異なる条件下での古典的なCNNやANNモデルと比較される。
この分析により、QCNNは、特定のアプリケーションにおける精度と効率の点で、古典的なCNNとANNのモデルより優れている可能性が示されている。
論文 参考訳(メタデータ) (2023-07-17T02:38:04Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Quantum Recurrent Neural Networks for Sequential Learning [11.133759363113867]
近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
論文 参考訳(メタデータ) (2023-02-07T04:04:39Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - 3D Scalable Quantum Convolutional Neural Networks for Point Cloud Data
Processing in Classification Applications [10.90994913062223]
量子畳み込みニューラルネットワーク(QCNN)は、分類アプリケーションにおけるポイントクラウドデータ処理のために提案される。
分類アプリケーションにおけるポイントクラウドデータ処理のための3DスケーラブルQCNN(sQCNN-3D)を提案する。
論文 参考訳(メタデータ) (2022-10-18T10:14:03Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。