論文の概要: From Membership-Privacy Leakage to Quantum Machine Unlearning
- arxiv url: http://arxiv.org/abs/2509.06086v2
- Date: Thu, 16 Oct 2025 05:29:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 16:37:10.474473
- Title: From Membership-Privacy Leakage to Quantum Machine Unlearning
- Title(参考訳): 会員資格の漏洩から量子機械の学習へ
- Authors: Junjian Su, Runze He, Guanghui Li, Sujuan Qin, Zhimin He, Haozhen Situ, Fei Gao,
- Abstract要約: 量子機械学習(QML)は、量子計算と古典機械学習(ML)を組み合わせることで、特定のタスクに対して量子的優位性を達成することができる。
古典的なMLでは、メンバーシッププライバシーの漏洩が大きな問題であり、攻撃者はトレーニングで特定のデータが使用されたかどうかをモデル出力から推測することができる。
我々は、QMLモデルがトレーニングデータについてメンバーシッププライバシを漏らし、MUメソッドがQMLモデルにおけるそのようなリークを効果的に軽減できるかという2つの研究課題を調査する。
- 参考スコア(独自算出の注目度): 7.598623786321504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Machine Learning (QML) has the potential to achieve quantum advantage for specific tasks by combining quantum computation with classical Machine Learning (ML). In classical ML, a significant challenge is membership privacy leakage, whereby an attacker can infer from model outputs whether specific data were used in training. When specific data are required to be withdrawn, removing their influence from the trained model becomes necessary. Machine Unlearning (MU) addresses this issue by enabling the model to forget the withdrawn data, thereby preventing membership privacy leakage. However, this leakage remains underexplored in QML. This raises two research questions: do QML models leak membership privacy about their training data, and can MU methods efficiently mitigate such leakage in QML models? We investigate these questions using two QNN architectures, a basic Quantum Neural Network (basic QNN) and a Hybrid QNN (HQNN), evaluated in noiseless simulations and on quantum hardware. For the first question, we design a Membership Inference Attack (MIA) tailored to QNN in a gray-box setting. Our experiments indicate clear evidence of leakage of membership privacy in both QNNs. For the second question, we propose a Quantum Machine Unlearning (QMU) framework, comprising three MU mechanisms. Experiments on two QNN architectures show that QMU removes the influence of the withdrawn data while preserving accuracy on retained data. A comparative analysis further characterizes the three MU mechanisms with respect to data dependence, computational cost, and robustness. Overall, this work provides a potential path towards privacy-preserving QML.
- Abstract(参考訳): 量子機械学習(QML)は、量子計算と古典機械学習(ML)を組み合わせることで、特定のタスクに対して量子的優位性を達成する可能性がある。
古典的なMLでは、メンバーシッププライバシーの漏洩が大きな問題であり、攻撃者はトレーニングで特定のデータが使用されたかどうかをモデル出力から推測することができる。
特定のデータを取り出す必要がある場合、トレーニングされたモデルからの影響を取り除く必要がある。
マシン・アンラーニング(MU)は、モデルが削除されたデータを忘れることを可能にし、会員プライバシーの漏洩を防止することでこの問題に対処する。
しかし、このリークはQMLでは未発見のままである。
QMLモデルはトレーニングデータに関するメンバシップのプライバシを漏らし、MUメソッドはQMLモデルのそのようなリークを効率的に軽減できるのか?
本稿では,2つのQNNアーキテクチャ,基本量子ニューラルネットワーク (基礎QNN) とハイブリッドQNN (HQNN) を用いて,ノイズレスシミュレーションおよび量子ハードウェア上での評価を行った。
最初の質問では、グレーボックス設定でQNNに適したメンバーシップ推論攻撃(MIA)を設計する。
両QNNにおけるメンバーシッププライバシの漏洩の明確な証拠を示す実験を行った。
第2の質問では,3つのMU機構からなる量子機械アンラーニング(QMU)フレームワークを提案する。
2つのQNNアーキテクチャの実験により、QMUは保持されたデータに対する精度を維持しながら、削除されたデータの影響を除去することを示した。
比較分析により、データ依存、計算コスト、堅牢性に関する3つのMUメカニズムが特徴づけられる。
全体として、この作業はプライバシ保護QMLへの潜在的な道筋を提供する。
関連論文リスト
- Adversarial Data Poisoning Attacks on Quantum Machine Learning in the NISQ Era [2.348041867134616]
量子機械学習(QML)ドメインにおける重要な関心事は、現在の量子クラウド設定におけるデータ中毒攻撃の脅威である。
本研究ではまず,符号化回路の出力を分析することで,クラス内エンコーダ状態類似度(ESS)を簡易かつ効果的に測定する手法を提案する。
ノイズのない環境とノイズの多い環境の両方で行われた広範な実験を通じて、我々は、UnderlineQuantum UnderlineIndiscriminate UnderlineData Poisoning attack, QUIDを紹介した。
論文 参考訳(メタデータ) (2024-11-21T18:46:45Z) - Security Concerns in Quantum Machine Learning as a Service [2.348041867134616]
量子機械学習(Quantum Machine Learning、QML)は、変分量子回路(VQC)を用いて機械学習タスクに取り組むアルゴリズムのカテゴリである。
近年の研究では、限られたトレーニングデータサンプルからQMLモデルを効果的に一般化できることが示されている。
QMLは、古典的および量子コンピューティングリソースの両方を利用するハイブリッドモデルである。
論文 参考訳(メタデータ) (2024-08-18T18:21:24Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Predominant Aspects on Security for Quantum Machine Learning: Literature Review [0.0]
量子機械学習(Quantum Machine Learning, QML)は、量子コンピューティングと古典的な機械学習の有望な交わりとして登場した。
本稿では,セキュリティ上の懸念と強みがQMLとどのように結びついているのかを,系統的な文献レビューを用いて論じる。
論文 参考訳(メタデータ) (2024-01-15T15:35:43Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z) - Towards Efficient Post-training Quantization of Pre-trained Language
Models [85.68317334241287]
PLMのポストトレーニング量子化(PTQ)について検討し,モジュール単位の量子化誤差最小化(MREM)を提案する。
GLUEとSQuADベンチマークの実験により、提案したPTQソリューションはQATに近く動作するだけでなく、トレーニング時間、メモリオーバーヘッド、データ消費を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-09-30T12:50:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。