論文の概要: Quantum machine unlearning
- arxiv url: http://arxiv.org/abs/2509.06086v1
- Date: Sun, 07 Sep 2025 15:00:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.852242
- Title: Quantum machine unlearning
- Title(参考訳): 量子マシンアンラーニング
- Authors: Junjian Su, Runze He, Guanghui Li, Sujuan Qin, Zhimin He, Haozhen Situ, Fei Gao,
- Abstract要約: QMLモデルではトレーニングデータへのメンバシップリークによるMUが必要か,QMLではMU機構を効率的に実装できるのか,という2つの質問に対して,QMU(Quantum Machine Unlearning)を提案する。
まず、メンバーシップ推論攻撃(MIA)を用いてトレーニングデータのプライバシー漏洩を定量化し、ノイズレスシミュレーションの平均成功率は90.2%、量子ハードウェアは75.3%である。
第2に、QMLモデルにMUアルゴリズムを実装し、シミュレーションでは平均MIA成功率を0%に、量子ハードウェアでは3.7%に削減し、保持データに精度を保つ。
- 参考スコア(独自算出の注目度): 7.598623786321504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Machine Learning (QML) integrates quantum computation with classical Machine Learning (ML) and holds the potential to achieve the quantum advantage for specific tasks. In classical ML, Machine Unlearning (MU) is a crucial strategy for removing the influence of specified training data from a model, to meet regulatory requirements and mitigate privacy risks. However, both the risk of training-data membership leakage remains underexplored in QML. This motivates us to propose Quantum Machine Unlearning (QMU) to explore two core questions: do QML models require MU due to training-data membership leakage, and can MU mechanisms be efficiently implemented in the QML? To answer the two questions, we conducted experiments on the MNIST classification task, utilizing a class-wise unlearning paradigm in both noiseless simulations and quantum hardware. First, we quantify training-data privacy leakage using a Membership Inference Attack (MIA), observing average success rates of 90.2\% in noiseless simulations and 75.3\% on quantum hardware. These results indicate that QML models present training-data membership leakage with very high probability under adversarial access, motivating the need for MU. Second, we implement MU algorithms on the QML model, which reduces the average MIA success rate to 0\% in simulations and 3.7\% on quantum hardware while preserving accuracy on retained data. We conclude that implementing MU mechanisms in QML models renders them resistant to MIA. Overall, this paper reveals significant privacy vulnerabilities in QML models and provides effective corresponding defense strategies, providing a potential path toward privacy-preserving QML systems.
- Abstract(参考訳): 量子機械学習(QML)は、量子計算と古典的機械学習(ML)を統合し、特定のタスクに対する量子優位性を達成する可能性を保持する。
古典的MLでは、機械学習(MU)は、特定のトレーニングデータの影響をモデルから排除し、規制要件を満たし、プライバシーリスクを軽減するための重要な戦略である。
しかし、トレーニングデータメンバーシップリークのリスクは、どちらもQMLでは未調査のままである。
これは、QMLモデルがトレーニングデータメンバーシップのリークによってMUを必要とするのか、QMLでMUメカニズムを効率的に実装できるのか、という2つの中核的な疑問を解くために、QMU(Quantum Machine Unlearning)を提案する動機となります。
この2つの疑問に答えるために、ノイズレスシミュレーションと量子ハードウェアの両方において、クラスワイド・アンラーニング・パラダイムを用いて、MNIST分類タスクの実験を行った。
まず、メンバーシップ推論攻撃(MIA)を用いてトレーニングデータのプライバシー漏洩を定量化し、ノイズレスシミュレーションの平均成功率は90.2\%、量子ハードウェアは75.3\%である。
以上の結果から,QMLモデルは,対向アクセスにおいて極めて高い確率でトレーニングデータ・メンバシップ・リークを示し,MUの必要性が示唆された。
第二に、QMLモデルにMUアルゴリズムを実装し、シミュレーションでは平均MIA成功率を0\%、量子ハードウェアでは3.7\%に削減し、保持データの精度を保っている。
QMLモデルにおけるMU機構の実装はMIAに耐性があることを結論付けている。
本稿では,QMLモデルにおける重大なプライバシの脆弱性を明らかにし,適切な防衛戦略を提供し,プライバシ保護型QMLシステムへの潜在的経路を提供する。
関連論文リスト
- Adversarial Data Poisoning Attacks on Quantum Machine Learning in the NISQ Era [2.348041867134616]
量子機械学習(QML)ドメインにおける重要な関心事は、現在の量子クラウド設定におけるデータ中毒攻撃の脅威である。
本研究ではまず,符号化回路の出力を分析することで,クラス内エンコーダ状態類似度(ESS)を簡易かつ効果的に測定する手法を提案する。
ノイズのない環境とノイズの多い環境の両方で行われた広範な実験を通じて、我々は、UnderlineQuantum UnderlineIndiscriminate UnderlineData Poisoning attack, QUIDを紹介した。
論文 参考訳(メタデータ) (2024-11-21T18:46:45Z) - Security Concerns in Quantum Machine Learning as a Service [2.348041867134616]
量子機械学習(Quantum Machine Learning、QML)は、変分量子回路(VQC)を用いて機械学習タスクに取り組むアルゴリズムのカテゴリである。
近年の研究では、限られたトレーニングデータサンプルからQMLモデルを効果的に一般化できることが示されている。
QMLは、古典的および量子コンピューティングリソースの両方を利用するハイブリッドモデルである。
論文 参考訳(メタデータ) (2024-08-18T18:21:24Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Predominant Aspects on Security for Quantum Machine Learning: Literature Review [0.0]
量子機械学習(Quantum Machine Learning, QML)は、量子コンピューティングと古典的な機械学習の有望な交わりとして登場した。
本稿では,セキュリティ上の懸念と強みがQMLとどのように結びついているのかを,系統的な文献レビューを用いて論じる。
論文 参考訳(メタデータ) (2024-01-15T15:35:43Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z) - Towards Efficient Post-training Quantization of Pre-trained Language
Models [85.68317334241287]
PLMのポストトレーニング量子化(PTQ)について検討し,モジュール単位の量子化誤差最小化(MREM)を提案する。
GLUEとSQuADベンチマークの実験により、提案したPTQソリューションはQATに近く動作するだけでなく、トレーニング時間、メモリオーバーヘッド、データ消費を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-09-30T12:50:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。