論文の概要: Federated Quantum Machine Learning with Differential Privacy
- arxiv url: http://arxiv.org/abs/2310.06973v1
- Date: Tue, 10 Oct 2023 19:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 01:25:49.836978
- Title: Federated Quantum Machine Learning with Differential Privacy
- Title(参考訳): 差分プライバシーを持つフェデレーション量子機械学習
- Authors: Rod Rofougaran, Shinjae Yoo, Huan-Hsin Tseng and Samuel Yen-Chi Chen
- Abstract要約: 本研究では,キャッツ対ドッグスデータセットのバイナリ分類を行うことにより,プライバシー保護手法の実装に成功した。
本研究では,NISQデバイス上での量子機械学習において,フェデレーション付き差分プライベートトレーニングが有効なプライバシ保護手法であることを示す。
- 参考スコア(独自算出の注目度): 9.755412365451985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The preservation of privacy is a critical concern in the implementation of
artificial intelligence on sensitive training data. There are several
techniques to preserve data privacy but quantum computations are inherently
more secure due to the no-cloning theorem, resulting in a most desirable
computational platform on top of the potential quantum advantages. There have
been prior works in protecting data privacy by Quantum Federated Learning (QFL)
and Quantum Differential Privacy (QDP) studied independently. However, to the
best of our knowledge, no prior work has addressed both QFL and QDP together
yet. Here, we propose to combine these privacy-preserving methods and implement
them on the quantum platform, so that we can achieve comprehensive protection
against data leakage (QFL) and model inversion attacks (QDP). This
implementation promises more efficient and secure artificial intelligence. In
this paper, we present a successful implementation of these
privacy-preservation methods by performing the binary classification of the
Cats vs Dogs dataset. Using our quantum-classical machine learning model, we
obtained a test accuracy of over 0.98, while maintaining epsilon values less
than 1.3. We show that federated differentially private training is a viable
privacy preservation method for quantum machine learning on Noisy
Intermediate-Scale Quantum (NISQ) devices.
- Abstract(参考訳): プライバシーの保護は、センシティブなトレーニングデータに対する人工知能の実装において重要な関心事である。
データプライバシを保存する技術はいくつか存在するが、量子計算は本質的に非閉包定理のためより安全であり、潜在的な量子的利点の上に最も望ましい計算プラットフォームとなる。
QFL(Quantum Federated Learning)とQDP(Quantum Differential Privacy)は独立して研究されている。
しかし、私たちの知る限りでは、QFLとQDPの双方に対処する以前の作業はまだありません。
本稿では,これらのプライバシ保存手法を組み合わせて量子プラットフォームに実装することで,データ漏洩(qfl)とモデル反転攻撃(qdp)に対する包括的保護を実現することを提案する。
この実装は、より効率的でセキュアな人工知能を約束する。
本稿では,猫対犬データセットのバイナリ分類を行い,これらのプライバシ保存手法の実装を成功させた。
量子古典機械学習モデルを用いて、1.3未満のエプシロン値を維持しながら、0.98以上のテスト精度を得た。
雑音中規模量子(nisq)デバイス上での量子機械学習において,フェデレーション微分プライベートトレーニングは有効なプライバシ保護手法であることを示す。
関連論文リスト
- Bridging Quantum Computing and Differential Privacy: Insights into Quantum Computing Privacy [15.024190374248088]
微分プライバシー(DP)は量子領域、すなわち量子微分プライバシー(QDP)に拡張されている。
QDPは、プライバシ保護量子コンピューティングに対する最も有望なアプローチの1つになるかもしれない。
本稿では,QDPの各種実装とその性能を,DP設定下でのプライバシパラメータの観点から概説する。
論文 参考訳(メタデータ) (2024-03-14T08:40:30Z) - Differential Privacy Preserving Quantum Computing via Projection Operator Measurements [15.024190374248088]
古典コンピューティングでは、プライバシ保護の標準を満たすために、差分プライバシ(DP)の概念を組み込むことができる。
量子コンピューティングのシナリオでは、研究者は量子ノイズを考慮して古典DPを量子微分プライバシー(QDP)に拡張した。
ショットノイズは、量子コンピューティングにおいて、効果的にプライバシ保護を提供することを示す。
論文 参考訳(メタデータ) (2023-12-13T15:27:26Z) - Blind quantum machine learning with quantum bipartite correlator [13.533591812956018]
本稿では,量子二部相関アルゴリズムに基づく新しい盲点量子機械学習プロトコルを提案する。
当社のプロトコルは、信頼できない関係者からのデータのプライバシーを維持しながら、通信オーバーヘッドを減らした。
論文 参考訳(メタデータ) (2023-10-19T16:42:32Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - CryptoQFL: Quantum Federated Learning on Encrypted Data [8.047082221165097]
Federated Learning(FL)は、新興の分散機械学習フレームワークである。
本稿では,暗号化データの分散QNNトレーニングを可能にするQNNフレームワークであるCryptoQFLを提案する。
CryptoQFLは、(1)各エッジがローカルのプライベートデータでQNNをトレーニングし、中央の量子サーバーに送信する前に量子ホモ暗号化を使用してその更新を暗号化すること、(2)CryptoQFLが局所的な勾配更新を3次値に量子化し、非ゼロの値をサーバにアグリゲーションするためにのみ通信すること、(3)CryptoQFLは効率的な計算効率を示すこと、である。
論文 参考訳(メタデータ) (2023-07-13T18:29:05Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Quantum machine learning with differential privacy [3.2442879131520126]
微分プライベート最適化アルゴリズムを用いて,プライバシ保存を訓練したハイブリッド量子古典モデルを開発した。
実験では、差分プライベートQMLは、モデル精度を低下させることなく、ユーザに敏感な情報を保護することができる。
論文 参考訳(メタデータ) (2021-03-10T18:06:15Z) - Quantum noise protects quantum classifiers against adversaries [120.08771960032033]
量子情報処理におけるノイズは、特に短期的な量子技術において、破壊的で避け難い特徴と見なされることが多い。
量子回路の非偏極雑音を利用して分類を行うことにより、敵に縛られるロバスト性を導出できることを示す。
これは、最も一般的な敵に対して使用できる最初の量子プロトコルである。
論文 参考訳(メタデータ) (2020-03-20T17:56:14Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。