論文の概要: Prospects of Privacy Advantage in Quantum Machine Learning
- arxiv url: http://arxiv.org/abs/2405.08801v2
- Date: Wed, 15 May 2024 17:46:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 12:36:16.315746
- Title: Prospects of Privacy Advantage in Quantum Machine Learning
- Title(参考訳): 量子機械学習におけるプライバシ・アドバンテージの展望
- Authors: Jamie Heredge, Niraj Kumar, Dylan Herman, Shouvanik Chakrabarti, Romina Yalovetzky, Shree Hari Sureshbabu, Changhao Li, Marco Pistoia,
- Abstract要約: 本研究の動機は,古典モデルの勾配から入力データを復元することに成功したことにある。
プライバシの脆弱性を決定する上で,VQCアンサッツのリー代数(DLA)が果たす重要な役割を明らかにする。
- 参考スコア(独自算出の注目度): 3.7592122147132767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring data privacy in machine learning models is critical, particularly in distributed settings where model gradients are typically shared among multiple parties to allow collaborative learning. Motivated by the increasing success of recovering input data from the gradients of classical models, this study addresses a central question: How hard is it to recover the input data from the gradients of quantum machine learning models? Focusing on variational quantum circuits (VQC) as learning models, we uncover the crucial role played by the dynamical Lie algebra (DLA) of the VQC ansatz in determining privacy vulnerabilities. While the DLA has previously been linked to the classical simulatability and trainability of VQC models, this work, for the first time, establishes its connection to the privacy of VQC models. In particular, we show that properties conducive to the trainability of VQCs, such as a polynomial-sized DLA, also facilitate the extraction of detailed snapshots of the input. We term this a weak privacy breach, as the snapshots enable training VQC models for distinct learning tasks without direct access to the original input. Further, we investigate the conditions for a strong privacy breach where the original input data can be recovered from these snapshots by classical or quantum-assisted polynomial time methods. We establish conditions on the encoding map such as classical simulatability, overlap with DLA basis, and its Fourier frequency characteristics that enable such a privacy breach of VQC models. Our findings thus play a crucial role in detailing the prospects of quantum privacy advantage by guiding the requirements for designing quantum machine learning models that balance trainability with robust privacy protection.
- Abstract(参考訳): 機械学習モデルにおけるデータのプライバシの確保は、特に、複数のパーティ間でモデル勾配が共有される分散環境では、特に重要である。
この研究は、古典モデルの勾配から入力データを復元する成功の増加に動機付けられ、中心的な疑問に対処する: 量子機械学習モデルの勾配から入力データを回復するのは、どのくらい難しいか?
学習モデルとして変分量子回路(VQC)に着目し,VQCアンサッツの動的リー代数(DLA)がもたらす重要な役割を明らかにする。
DLAは以前、VQCモデルの古典的なシミュラビリティとトレーニング容易性に関連付けられていたが、この研究は初めて、VQCモデルのプライバシへの接続を確立した。
特に,多項式サイズのDLAのようなVQCのトレーニング性に寄与する特性は,入力の詳細なスナップショットの抽出にも有効であることを示す。
スナップショットは、オリジナルの入力に直接アクセスすることなく、異なる学習タスクのためのVQCモデルのトレーニングを可能にします。
さらに、これらのスナップショットから元の入力データを復元できる強力なプライバシー侵害の条件を、古典的あるいは量子的多項式時間法により検討する。
我々は、古典的シミュラビリティやDLAベースとの重なり合い、VQCモデルのプライバシー侵害を可能にするフーリエ周波数特性などの符号化マップ上の条件を確立する。
これにより、トレーニング可能性と堅牢なプライバシ保護のバランスをとる量子機械学習モデルを設計するための要件を導くことで、量子プライバシーの優位性の可能性の詳細化に重要な役割を果たします。
関連論文リスト
- RQP-SGD: Differential Private Machine Learning through Noisy SGD and
Randomized Quantization [8.04975023021212]
我々は、機械学習モデルをトレーニングするためのプライバシー保護量子化の新しいアプローチであるRQP-SGDを提案する。
このアプローチは、微分プライベートな勾配降下とランダムな量子化を組み合わせることで、測定可能なプライバシー保証を提供する。
論文 参考訳(メタデータ) (2024-02-09T18:34:08Z) - Expressive variational quantum circuits provide inherent privacy in
federated learning [2.3255115473995134]
フェデレーション学習は、中央アグリゲータとデータを共有する必要なく、機械学習モデルをトレーニングするための実行可能なソリューションとして登場した。
標準的なニューラルネットワークベースのフェデレーション学習モデルは、サーバと共有される勾配からデータ漏洩の影響を受けやすいことが示されている。
表現的マップは、勾配反転攻撃に対する固有のプライバシーにつながることを示す。
論文 参考訳(メタデータ) (2023-09-22T17:04:50Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Retrieval-Enhanced Contrastive Vision-Text Models [61.783728119255365]
そこで本研究では,メモリから取得したクロスモーダルな情報を推論時に表現することで,その埋め込みを洗練できる視覚テキストモデルを提案する。
注目すべきことに、これは凍ったCLIPの上に軽量の単層核融合トランスを用いて行うことができる。
検索強化コントラスト訓練(RECO)がCLIPの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T15:52:02Z) - Classical-to-Quantum Transfer Learning Facilitates Machine Learning with Variational Quantum Circuit [62.55763504085508]
本稿では,変分量子回路(VQC)を用いた古典的量子移動学習アーキテクチャにより,VQCモデルの表現と一般化(推定誤差)が向上することを証明する。
古典-量子遷移学習のアーキテクチャは、事前学習された古典的生成AIモデルを活用し、訓練段階におけるVQCの最適パラメータの発見を容易にする。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Q-LSTM Language Model -- Decentralized Quantum Multilingual Pre-Trained
Language Model for Privacy Protection [6.0038761646405225]
大規模言語モデルは、私たちのプライベート情報をエンコードしたり、反映したりする可能性のある、膨大な量の自然言語データに基づいて訓練されています。
悪意のあるエージェントは、事前トレーニングプロセスにデータ衛生と差分プライバシーアルゴリズムが関与している場合でも、トレーニングデータをリバースエンジニアリングすることができる。
大規模言語モデルの学習におけるプライバシー問題に対処する分散トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T21:29:17Z) - Joint Privacy Enhancement and Quantization in Federated Learning [23.36363480217293]
Federated Learning(FL)は、エッジデバイスで利用可能なプライベートデータを使用して機械学習モデルをトレーニングするための新興パラダイムである。
共同プライバシー強化・量子化法(JoPEQ)を提案する。
所望のプライバシレベルを保持しながら、必要なビットレートに応じてデータを同時に定量化することを示す。
論文 参考訳(メタデータ) (2022-08-23T11:42:58Z) - Quantum machine learning with differential privacy [3.2442879131520126]
微分プライベート最適化アルゴリズムを用いて,プライバシ保存を訓練したハイブリッド量子古典モデルを開発した。
実験では、差分プライベートQMLは、モデル精度を低下させることなく、ユーザに敏感な情報を保護することができる。
論文 参考訳(メタデータ) (2021-03-10T18:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。