論文の概要: QuMoS: A Framework for Preserving Security of Quantum Machine Learning
Model
- arxiv url: http://arxiv.org/abs/2304.11511v1
- Date: Sun, 23 Apr 2023 01:17:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 18:01:35.667872
- Title: QuMoS: A Framework for Preserving Security of Quantum Machine Learning
Model
- Title(参考訳): QuMoS: 量子機械学習モデルのセキュリティを維持するためのフレームワーク
- Authors: Zhepeng Wang, Jinyang Li, Zhirui Hu, Blake Gage, Elizabeth Iwasawa,
Weiwen Jiang
- Abstract要約: セキュリティは常に、機械学習(ML)アプリケーションにおいて重要な問題でした。
モデルステアリング攻撃は最も基本的な問題だが重要な問題の一つである。
モデルセキュリティを維持するための新しいフレームワーク、QuMoSを提案する。
- 参考スコア(独自算出の注目度): 4.684400940021111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Security has always been a critical issue in machine learning (ML)
applications. Due to the high cost of model training -- such as collecting
relevant samples, labeling data, and consuming computing power --
model-stealing attack is one of the most fundamental but vitally important
issues. When it comes to quantum computing, such a quantum machine learning
(QML) model-stealing attack also exists and it is even more severe because the
traditional encryption method can hardly be directly applied to quantum
computation. On the other hand, due to the limited quantum computing resources,
the monetary cost of training QML model can be even higher than classical ones
in the near term. Therefore, a well-tuned QML model developed by a company can
be delegated to a quantum cloud provider as a service to be used by ordinary
users. In this case, the QML model will be leaked if the cloud provider is
under attack. To address such a problem, we propose a novel framework, namely
QuMoS, to preserve model security. Instead of applying encryption algorithms,
we propose to distribute the QML model to multiple physically isolated quantum
cloud providers. As such, even if the adversary in one provider can obtain a
partial model, the information of the full model is maintained in the QML
service company. Although promising, we observed an arbitrary model design
under distributed settings cannot provide model security. We further developed
a reinforcement learning-based security engine, which can automatically
optimize the model design under the distributed setting, such that a good
trade-off between model performance and security can be made. Experimental
results on four datasets show that the model design proposed by QuMoS can
achieve a close accuracy to the model designed with neural architecture search
under centralized settings while providing the highest security than the
baselines.
- Abstract(参考訳): セキュリティは常に、機械学習(ML)アプリケーションにおいて重要な問題でした。
関連するサンプルの収集、データのラベル付け、コンピューティングパワーの消費など、モデルトレーニングのコストが高いため、モデルスティーリング攻撃は最も重要な問題のひとつです。
量子コンピューティングに関しては、量子機械学習(QML)モデルスティーリング攻撃も存在しており、従来の暗号化手法が量子計算に直接適用できないため、さらに深刻である。
一方、量子コンピューティング資源が限られているため、QMLモデルのトレーニングの金銭的コストは、短期的には古典的モデルよりもさらに高くなる可能性がある。
したがって、企業によって開発されたよく調整されたQMLモデルは、通常のユーザが使用するサービスとして量子クラウドプロバイダに委譲することができる。
この場合、クラウドプロバイダが攻撃を受けている場合、QMLモデルはリークされる。
このような問題に対処するため,モデルセキュリティを維持するための新しいフレームワークQuMoSを提案する。
暗号化アルゴリズムを適用する代わりに、複数の物理的に分離された量子クラウドプロバイダにQMLモデルを分散することを提案する。
これにより、あるプロバイダ内の敵が部分モデルを得ることができる場合でも、QMLサービス会社でフルモデルの情報が維持される。
有望ではあるが、分散環境での任意のモデル設計はモデルのセキュリティを提供することができない。
さらに,分散環境下でのモデル設計を自動的に最適化し,モデル性能とセキュリティの良好なトレードオフを実現するための強化学習ベースのセキュリティエンジンを開発した。
4つのデータセットに対する実験結果から、QuMoSが提案するモデル設計は、ベースラインよりも高いセキュリティを提供しながら、集中的な設定下でニューラルアーキテクチャサーチで設計したモデルに精度良く対応できることが示された。
関連論文リスト
- Security Concerns in Quantum Machine Learning as a Service [2.348041867134616]
量子機械学習(Quantum Machine Learning、QML)は、変分量子回路(VQC)を用いて機械学習タスクに取り組むアルゴリズムのカテゴリである。
近年の研究では、限られたトレーニングデータサンプルからQMLモデルを効果的に一般化できることが示されている。
QMLは、古典的および量子コンピューティングリソースの両方を利用するハイブリッドモデルである。
論文 参考訳(メタデータ) (2024-08-18T18:21:24Z) - The Quantum Imitation Game: Reverse Engineering of Quantum Machine Learning Models [2.348041867134616]
量子機械学習(QML)は、機械学習モデルと量子コンピューティングのパラダイムを融合させる。
量子コンピューティングのNoisy Intermediate-Scale Quantum(NISQ)時代における多くのサードパーティベンダーの拡大により、QMLモデルのセキュリティが最重要となる。
我々は、信頼できない量子クラウドプロバイダが、推論中にトランスパイルされたユーザ設計のトレーニングされたQMLモデルにホワイトボックスアクセスを持つ敵であると仮定する。
論文 参考訳(メタデータ) (2024-07-09T21:35:19Z) - PristiQ: A Co-Design Framework for Preserving Data Security of Quantum Learning in the Cloud [7.87660609586004]
クラウドコンピューティングは量子機械学習(QML)においてデータ漏洩のリスクが高い
本稿では,QMLのデータセキュリティをQパラダイム,すなわちPristiQで保護するための協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-20T22:03:32Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - Encrypted machine learning of molecular quantum properties [0.0]
予測過程の暗号化は、二重盲検モデル評価によってこの問題を解決することができる。
セキュアで計算可能な暗号化機械学習モデルを実装している。
カーネルリッジ回帰モデルを用いた暗号化予測は、暗号化なしでは100万倍のコストがかかることがわかった。
論文 参考訳(メタデータ) (2022-12-05T11:04:08Z) - Partially Oblivious Neural Network Inference [4.843820624525483]
CNNのようなニューラルネットワークモデルでは、いくつかの情報漏洩が許容可能であることを示す。
我々は,CIFAR-10ネットワークにおいて,モデル重量の最大80%を,事実上のセキュリティ上の影響なく漏洩させることができることを実験的に実証した。
論文 参考訳(メタデータ) (2022-10-27T05:39:36Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Towards Efficient Post-training Quantization of Pre-trained Language
Models [85.68317334241287]
PLMのポストトレーニング量子化(PTQ)について検討し,モジュール単位の量子化誤差最小化(MREM)を提案する。
GLUEとSQuADベンチマークの実験により、提案したPTQソリューションはQATに近く動作するだけでなく、トレーニング時間、メモリオーバーヘッド、データ消費を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-09-30T12:50:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。