論文の概要: Quantum Neural Network Extraction Attack via Split Co-Teaching
- arxiv url: http://arxiv.org/abs/2409.02207v1
- Date: Tue, 3 Sep 2024 18:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-05 21:39:27.001111
- Title: Quantum Neural Network Extraction Attack via Split Co-Teaching
- Title(参考訳): Split Co-Teachingによる量子ニューラルネットワーク抽出攻撃
- Authors: Zhenxiao fu, Fan Chen,
- Abstract要約: 量子ネットワーク(QNN)は現在QNN-as-a-Service(QNN)として提供されており、モデル抽出攻撃の主要なターゲットとなっている。
我々は,音の感度で検索するテキストスプリットデータに対するラベルのバリエーションを利用した,新しい攻撃であるテキストスプリット・コ・ティーチングを導入する。
提案手法は古典的抽出攻撃を6.5%$sim$9.5%、既存のQNN抽出手法を0.1%$sim$3.7%上回る。
- 参考スコア(独自算出の注目度): 4.041730579014849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum Neural Networks (QNNs), now offered as QNN-as-a-Service (QNNaaS), have become key targets for model extraction attacks. State-of-the-art methods use ensemble learning to train accurate substitute QNNs, but our analysis reveals significant limitations in real-world NISQ environments, where noise and cost constraints undermine their effectiveness. In this work, we introduce a novel attack, \textit{split co-teaching}, which leverages label variations to \textit{split} queried data by noise sensitivity and employs \textit{co-teaching} schemes to enhance extraction accuracy. Experiments on NISQ processors demonstrate that our approach outperforms classical extraction attacks by 6.5\%$\sim$9.5\% and existing QNN extraction methods by 0.1\%$\sim$3.7\% across various tasks.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は現在QNN-as-a-Service(QNNaaS)として提供されており、モデル抽出攻撃の主要なターゲットとなっている。
最先端の手法では,高精度な代替QNNの訓練にアンサンブル学習を用いるが,実環境のNISQ環境ではノイズやコストの制約が効果を損なう重要な制約が明らかになる。
本研究では, ノイズ感度によるラベル変動を利用した新しい攻撃法である \textit{split co-teaching} を導入し, 抽出精度を高めるために \textit{co-teaching} 方式を用いる。
NISQプロセッサを用いた実験により,従来のQNN抽出法では6.5\%$\sim$9.5\%,既存のQNN抽出法では0.1\%$\sim$3.7\%を達成できた。
関連論文リスト
- Improving the Robustness of Quantized Deep Neural Networks to White-Box
Attacks using Stochastic Quantization and Information-Theoretic Ensemble
Training [1.6098666134798774]
ディープニューラルネットワーク(DNN)を使用する現実世界のほとんどのアプリケーションは、計算ニーズを減らすためにそれらを低精度で量子化する。
ホワイトボックス攻撃に対する量子化DNNのロバスト性を改善する手法を提案する。
論文 参考訳(メタデータ) (2023-11-30T17:15:58Z) - A Post-Training Approach for Mitigating Overfitting in Quantum
Convolutional Neural Networks [0.24578723416255752]
量子畳み込みニューラルネットワーク(QCNN)におけるオーバーフィッティング軽減のためのポストトレーニング手法の検討
古典的なポストトレーニング手法であるニューロトン・ドロップアウトの量子設定への直接的な適応は、QCNNの成功確率を著しく低下させる。
我々は、この効果がQCNNにおける絡み合いの重要な役割と、QCNNの絡み合い損失に対する脆弱性を明らかにすることを論じる。
論文 参考訳(メタデータ) (2023-09-04T21:46:24Z) - An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Random Quantum Neural Networks (RQNN) for Noisy Image Recognition [0.9205287316703888]
本稿では,RQNN (Random Quantum Neural Networks) の新たなクラスについて紹介する。
提案するRQNNは、重ね合わせ状態と振幅符号化機能を備えたハイブリッド古典量子アルゴリズムを用いる。
MNIST、FashionMNIST、KMNISTデータセットの実験により、提案されたRQNNモデルは平均分類精度が94.9%であることを示した。
論文 参考訳(メタデータ) (2022-03-03T15:15:29Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。