論文の概要: STIQ: Safeguarding Training and Inferencing of Quantum Neural Networks from Untrusted Cloud
- arxiv url: http://arxiv.org/abs/2405.18746v1
- Date: Wed, 29 May 2024 04:09:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 18:58:09.509935
- Title: STIQ: Safeguarding Training and Inferencing of Quantum Neural Networks from Untrusted Cloud
- Title(参考訳): STIQ: 信頼できないクラウドからの量子ニューラルネットワークのトレーニングと推論の保護
- Authors: Satwik Kundu, Swaroop Ghosh,
- Abstract要約: 信頼できないプラットフォームに量子モデルをデプロイまたはホストすることは、数多くのセキュリティ上の懸念をもたらす。
この脆弱性は、トレーニングや推論中にクラウドプロバイダがこれらの回路に完全にアクセスすることに由来する。
クラウドベースの敵に対するQNNの保護を目的とした,新たなアンサンブルベースの戦略であるSTIQを紹介する。
- 参考スコア(独自算出の注目度): 2.348041867134616
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The high expenses imposed by current quantum cloud providers, coupled with the escalating need for quantum resources, may incentivize the emergence of cheaper cloud-based quantum services from potentially untrusted providers. Deploying or hosting quantum models, such as Quantum Neural Networks (QNNs), on these untrusted platforms introduces a myriad of security concerns, with the most critical one being model theft. This vulnerability stems from the cloud provider's full access to these circuits during training and/or inference. In this work, we introduce STIQ, a novel ensemble-based strategy designed to safeguard QNNs against such cloud-based adversaries. Our method innovatively trains two distinct QNNs concurrently, hosting them on same or different platforms, in a manner that each network yields obfuscated outputs rendering the individual QNNs ineffective for adversaries operating within cloud environments. However, when these outputs are combined locally (using an aggregate function), they reveal the correct result. Through extensive experiments across various QNNs and datasets, our technique has proven to effectively masks the accuracy and losses of the individually hosted models by upto 76\%, albeit at the expense of $\leq 2\times$ increase in the total computational overhead. This trade-off, however, is a small price to pay for the enhanced security and integrity of QNNs in a cloud-based environment prone to untrusted adversaries. We also demonstrated STIQ's practical application by evaluating it on real 127-qubit IBM\_Sherbrooke hardware, showing that STIQ achieves up to 60\% obfuscation, with combined performance comparable to an unobfuscated model.
- Abstract(参考訳): 現在の量子クラウドプロバイダが課している高コストは、量子リソースの増大の必要性と相まって、潜在的に信頼できないプロバイダからのより安価なクラウドベースの量子サービスの台頭を動機付ける可能性がある。
これらの信頼できないプラットフォームに量子ニューラルネットワーク(QNN)などの量子モデルをデプロイしたり、ホストしたりすると、無数のセキュリティ上の懸念が生じ、最も重要なのがモデル盗難である。
この脆弱性は、トレーニングや推論中にクラウドプロバイダがこれらの回路に完全にアクセスすることに由来する。
そこで本研究では,このようなクラウドベースの敵に対するQNNの保護を目的とした,新たなアンサンブルベースの戦略であるSTIQを紹介する。
提案手法は,同一または異なるプラットフォーム上でホストする2つの異なるQNNを同時に訓練し,各ネットワークが難解な出力を出力することにより,クラウド環境内で動作している敵に対して,個々のQNNを非効率に処理する。
しかし、これらの出力が(集約関数を使って)局所的に結合されると、正しい結果が明らかになる。
様々なQNNやデータセットにわたる広範な実験を通じて、我々の手法は、計算オーバーヘッドの合計で$$\leq 2\times$を犠牲にして、個別にホストされたモデルの精度と損失を最大66%まで効果的に隠蔽することが証明された。
しかし、このトレードオフは、クラウドベースの環境でのQNNのセキュリティ強化と整合性のために、信頼できない敵に対して支払う小さな価格である。
また、実際の127量子ビットのIBM\_Sherbrookeハードウェア上でSTIQの実用的応用を実証し、STIQが最大60%の難読化を実現し、非難読化モデルに匹敵する性能を併せ持つことを示した。
関連論文リスト
- RobQuNNs: A Methodology for Robust Quanvolutional Neural Networks against Adversarial Attacks [3.9554540293311864]
Quanvolutional Neural Networks (QuNN) は量子層と古典層を統合している。
本研究は,QuNNの敵攻撃に対する堅牢性を高める新しい手法であるRobQuNNを紹介する。
その結果、QuNNはMNISTデータセットの古典的ネットワークに比べて最大60%高いロバスト性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-04T12:13:52Z) - QuantumLeak: Stealing Quantum Neural Networks from Cloud-based NISQ Machines [20.379144412885775]
変分量子回路(VQC)は量子ニューラルネットワーク(QNN)を実装する強力なツールとなっている
よく訓練されたVQCは、クラウドベースのNoisy Intermediate Scale Quantum (NISQ)コンピュータでホストされる貴重な知的資産として機能する。
我々は,クラウドベースのNISQマシンからのQNNモデル抽出手法であるQuantumLeakを紹介する。
論文 参考訳(メタデータ) (2024-03-16T03:42:29Z) - AdvQuNN: A Methodology for Analyzing the Adversarial Robustness of Quanvolutional Neural Networks [3.9554540293311864]
本研究の目的は、量子回路アーキテクチャがQuNNモデルのレジリエンスに与える影響を厳格に評価することである。
その結果、従来の畳み込みネットワークと比較して、QuNNはMNISTでは最大60%、FMNISTデータセットでは40%高いロバスト性を達成できた。
論文 参考訳(メタデータ) (2024-03-07T12:30:40Z) - Scale-Dropout: Estimating Uncertainty in Deep Neural Networks Using
Stochastic Scale [0.7025445595542577]
ニューラルネットワーク(NN)の不確実性推定は、特に安全クリティカルなアプリケーションにおいて、予測の信頼性と信頼性を向上させる上で不可欠である。
Dropoutを近似とするBayNNは、不確実性に対する体系的なアプローチを提供するが、本質的には、電力、メモリ、定量化の点で高いハードウェアオーバーヘッドに悩まされている。
提案するBayNNに対して,スピントロニクスメモリベースのCIMアーキテクチャを導入し,最先端技術と比較して100倍以上の省エネを実現した。
論文 参考訳(メタデータ) (2023-11-27T13:41:20Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Dissipative quantum generative adversarial networks [0.0]
2つの散逸型量子ニューラルネットワーク(DQNN)を用いた生成逆モデルを構築する。
両部を競争的に訓練することで,よく訓練されたDQNNが得られることがわかった。
論文 参考訳(メタデータ) (2021-12-11T22:59:40Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。