論文の概要: Quantum Data Breach: Reusing Training Dataset by Untrusted Quantum Clouds
- arxiv url: http://arxiv.org/abs/2407.14687v1
- Date: Fri, 19 Jul 2024 22:06:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 21:23:47.556225
- Title: Quantum Data Breach: Reusing Training Dataset by Untrusted Quantum Clouds
- Title(参考訳): Quantum Data Breach: 信頼できない量子クラウドによるトレーニングデータセットの再利用
- Authors: Suryansh Upadhyay, Swaroop Ghosh,
- Abstract要約: 量子クラウドの敵は、トレーニング中にQMLモデルのホワイトボックスアクセスを使用してラベルを抽出できることを示す。
抽出したトレーニングデータは、クローンモデルをトレーニングするために再利用したり、利益のために販売することができる。
本稿では,誤りラベルを抽出し,修正するための一連の手法を提案する。
- 参考スコア(独自算出の注目度): 2.348041867134616
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Quantum computing (QC) has the potential to revolutionize fields like machine learning, security, and healthcare. Quantum machine learning (QML) has emerged as a promising area, enhancing learning algorithms using quantum computers. However, QML models are lucrative targets due to their high training costs and extensive training times. The scarcity of quantum resources and long wait times further exacerbate the challenge. Additionally, QML providers may rely on a third-party quantum cloud for hosting the model, exposing the models and training data. As QML-as-a-Service (QMLaaS) becomes more prevalent, reliance on third party quantum clouds can pose a significant threat. This paper shows that adversaries in quantum clouds can use white-box access of the QML model during training to extract the state preparation circuit (containing training data) along with the labels. The extracted training data can be reused for training a clone model or sold for profit. We propose a suite of techniques to prune and fix the incorrect labels. Results show that $\approx$90\% labels can be extracted correctly. The same model trained on the adversarially extracted data achieves approximately $\approx$90\% accuracy, closely matching the accuracy achieved when trained on the original data. To mitigate this threat, we propose masking labels/classes and modifying the cost function for label obfuscation, reducing adversarial label prediction accuracy by $\approx$70\%.
- Abstract(参考訳): 量子コンピューティング(QC)は、マシンラーニングやセキュリティ、ヘルスケアといった分野に革命をもたらす可能性がある。
量子機械学習(QML)は将来性のある分野として登場し、量子コンピュータを用いた学習アルゴリズムを強化している。
しかし、QMLモデルは、高いトレーニングコストと広範なトレーニング時間のために、利益のターゲットとなっている。
量子資源の不足と長い待ち時間により、この課題はさらに悪化する。
さらに、QMLプロバイダはモデルをホストし、モデルを公開し、データをトレーニングするために、サードパーティの量子クラウドに依存する場合もある。
QML-as-a-Service(QMLaaS)が普及するにつれて、サードパーティの量子クラウドへの依存は重大な脅威となる。
本稿では,量子雲の敵がトレーニング中にQMLモデルのホワイトボックスアクセスを使用して,ラベルとともに状態準備回路(トレーニングデータを含む)を抽出できることを示す。
抽出したトレーニングデータは、クローンモデルをトレーニングするために再利用したり、利益のために販売することができる。
本稿では,誤りラベルを抽出し,修正するための一連の手法を提案する。
結果は、$\approx$90\%ラベルを正しく抽出できることを示している。
逆抽出データに基づいてトレーニングされた同じモデルは、約$\approx$90\%の精度を達成する。
この脅威を軽減するため,ラベル難読化のためのマスクラベル/クラスの提案とコスト関数の変更を行い,逆ラベル予測の精度を$$\approx$70\%削減する。
関連論文リスト
- Adversarial Poisoning Attack on Quantum Machine Learning Models [2.348041867134616]
量子無差別データ中毒攻撃(QUID)を導入する。
QUIDはベースラインモデルと比較して、モデル性能の最大92%の精度劣化を達成している。
また、QUIDを最先端のクラシックディフェンスに対してテストし、精度の低下は50ドルを超えました。
論文 参考訳(メタデータ) (2024-11-21T18:46:45Z) - Training quantum machine learning models on cloud without uploading the data [0.0]
本稿では,入力データを符号化する前にパラメータ化量子回路を動作させる手法を提案する。
これにより、データセット所有者は、量子クラウドプラットフォーム上で機械学習モデルをトレーニングすることができる。
また、後に古典的な計算を用いて大量のデータを効果的に符号化することも可能である。
論文 参考訳(メタデータ) (2024-09-06T20:14:52Z) - The Quantum Imitation Game: Reverse Engineering of Quantum Machine Learning Models [2.348041867134616]
量子機械学習(QML)は、機械学習モデルと量子コンピューティングのパラダイムを融合させる。
量子コンピューティングのNoisy Intermediate-Scale Quantum(NISQ)時代における多くのサードパーティベンダーの拡大により、QMLモデルのセキュリティが最重要となる。
我々は、信頼できない量子クラウドプロバイダが、推論中にトランスパイルされたユーザ設計のトレーニングされたQMLモデルにホワイトボックスアクセスを持つ敵であると仮定する。
論文 参考訳(メタデータ) (2024-07-09T21:35:19Z) - Quantum Active Learning [3.3202982522589934]
量子ニューラルネットワークのトレーニングは通常、教師付き学習のための実質的なラベル付きトレーニングセットを必要とする。
QALはモデルを効果的にトレーニングし、完全にラベル付けされたデータセットに匹敵するパフォーマンスを達成する。
我々は,QALがランダムサンプリングベースラインに乗じて負の結果を微妙な数値実験により解明する。
論文 参考訳(メタデータ) (2024-05-28T14:39:54Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Machine Learning Force Fields with Data Cost Aware Training [94.78998399180519]
分子動力学(MD)シミュレーションを加速するために機械学習力場(MLFF)が提案されている。
最もデータ効率のよいMLFFであっても、化学精度に達するには数百フレームの力とエネルギーのラベルが必要になる。
我々は、安価な不正確なデータと高価な正確なデータの組み合わせを利用して、MLFFのデータコストを下げる多段階計算フレームワークASTEROIDを提案する。
論文 参考訳(メタデータ) (2023-06-05T04:34:54Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Delegated variational quantum algorithms based on quantum homomorphic
encryption [69.50567607858659]
変分量子アルゴリズム(VQA)は、量子デバイス上で量子アドバンテージを達成するための最も有望な候補の1つである。
クライアントのプライベートデータは、そのような量子クラウドモデルで量子サーバにリークされる可能性がある。
量子サーバが暗号化データを計算するための新しい量子ホモモルフィック暗号(QHE)スキームが構築されている。
論文 参考訳(メタデータ) (2023-01-25T07:00:13Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Generalization in quantum machine learning from few training data [4.325561431427748]
現代の量子機械学習(QML)手法は、トレーニングデータセット上でパラメータ化された量子回路を変動的に最適化する。
トレーニング可能なゲートを最低で$sqrtT/N$とする量子機械学習モデルの一般化誤差を示す。
また、量子畳み込みニューラルネットワークによる相転移における量子状態の分類には、非常に小さなトレーニングデータセットが必要であることも示している。
論文 参考訳(メタデータ) (2021-11-09T17:49:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。