論文の概要: Quantum machine unlearning
- arxiv url: http://arxiv.org/abs/2509.06086v1
- Date: Sun, 07 Sep 2025 15:00:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.852242
- Title: Quantum machine unlearning
- Title(参考訳): 量子マシンアンラーニング
- Authors: Junjian Su, Runze He, Guanghui Li, Sujuan Qin, Zhimin He, Haozhen Situ, Fei Gao,
- Abstract要約: QMLモデルではトレーニングデータへのメンバシップリークによるMUが必要か,QMLではMU機構を効率的に実装できるのか,という2つの質問に対して,QMU(Quantum Machine Unlearning)を提案する。
まず、メンバーシップ推論攻撃(MIA)を用いてトレーニングデータのプライバシー漏洩を定量化し、ノイズレスシミュレーションの平均成功率は90.2%、量子ハードウェアは75.3%である。
第2に、QMLモデルにMUアルゴリズムを実装し、シミュレーションでは平均MIA成功率を0%に、量子ハードウェアでは3.7%に削減し、保持データに精度を保つ。
- 参考スコア(独自算出の注目度): 7.598623786321504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Machine Learning (QML) integrates quantum computation with classical Machine Learning (ML) and holds the potential to achieve the quantum advantage for specific tasks. In classical ML, Machine Unlearning (MU) is a crucial strategy for removing the influence of specified training data from a model, to meet regulatory requirements and mitigate privacy risks. However, both the risk of training-data membership leakage remains underexplored in QML. This motivates us to propose Quantum Machine Unlearning (QMU) to explore two core questions: do QML models require MU due to training-data membership leakage, and can MU mechanisms be efficiently implemented in the QML? To answer the two questions, we conducted experiments on the MNIST classification task, utilizing a class-wise unlearning paradigm in both noiseless simulations and quantum hardware. First, we quantify training-data privacy leakage using a Membership Inference Attack (MIA), observing average success rates of 90.2\% in noiseless simulations and 75.3\% on quantum hardware. These results indicate that QML models present training-data membership leakage with very high probability under adversarial access, motivating the need for MU. Second, we implement MU algorithms on the QML model, which reduces the average MIA success rate to 0\% in simulations and 3.7\% on quantum hardware while preserving accuracy on retained data. We conclude that implementing MU mechanisms in QML models renders them resistant to MIA. Overall, this paper reveals significant privacy vulnerabilities in QML models and provides effective corresponding defense strategies, providing a potential path toward privacy-preserving QML systems.
- Abstract(参考訳): 量子機械学習(QML)は、量子計算と古典的機械学習(ML)を統合し、特定のタスクに対する量子優位性を達成する可能性を保持する。
古典的MLでは、機械学習(MU)は、特定のトレーニングデータの影響をモデルから排除し、規制要件を満たし、プライバシーリスクを軽減するための重要な戦略である。
しかし、トレーニングデータメンバーシップリークのリスクは、どちらもQMLでは未調査のままである。
これは、QMLモデルがトレーニングデータメンバーシップのリークによってMUを必要とするのか、QMLでMUメカニズムを効率的に実装できるのか、という2つの中核的な疑問を解くために、QMU(Quantum Machine Unlearning)を提案する動機となります。
この2つの疑問に答えるために、ノイズレスシミュレーションと量子ハードウェアの両方において、クラスワイド・アンラーニング・パラダイムを用いて、MNIST分類タスクの実験を行った。
まず、メンバーシップ推論攻撃(MIA)を用いてトレーニングデータのプライバシー漏洩を定量化し、ノイズレスシミュレーションの平均成功率は90.2\%、量子ハードウェアは75.3\%である。
以上の結果から,QMLモデルは,対向アクセスにおいて極めて高い確率でトレーニングデータ・メンバシップ・リークを示し,MUの必要性が示唆された。
第二に、QMLモデルにMUアルゴリズムを実装し、シミュレーションでは平均MIA成功率を0\%、量子ハードウェアでは3.7\%に削減し、保持データの精度を保っている。
QMLモデルにおけるMU機構の実装はMIAに耐性があることを結論付けている。
本稿では,QMLモデルにおける重大なプライバシの脆弱性を明らかにし,適切な防衛戦略を提供し,プライバシ保護型QMLシステムへの潜在的経路を提供する。
関連論文リスト
- Quantum Quandaries: Unraveling Encoding Vulnerabilities in Quantum Neural Networks [2.348041867134616]
この研究は、量子クラウド環境の敵がQMLモデルへのホワイトボックスアクセスを活用できることを実証している。
95%の時間、符号化が正しく予測可能であることを報告した。
この脅威を軽減するために,指紋を隠蔽する一過性の難読化層を提案する。
論文 参考訳(メタデータ) (2025-02-03T16:21:16Z) - Adversarial Data Poisoning Attacks on Quantum Machine Learning in the NISQ Era [2.348041867134616]
量子機械学習(QML)ドメインにおける重要な関心事は、現在の量子クラウド設定におけるデータ中毒攻撃の脅威である。
本研究ではまず,符号化回路の出力を分析することで,クラス内エンコーダ状態類似度(ESS)を簡易かつ効果的に測定する手法を提案する。
ノイズのない環境とノイズの多い環境の両方で行われた広範な実験を通じて、我々は、UnderlineQuantum UnderlineIndiscriminate UnderlineData Poisoning attack, QUIDを紹介した。
論文 参考訳(メタデータ) (2024-11-21T18:46:45Z) - Security Concerns in Quantum Machine Learning as a Service [2.348041867134616]
量子機械学習(Quantum Machine Learning、QML)は、変分量子回路(VQC)を用いて機械学習タスクに取り組むアルゴリズムのカテゴリである。
近年の研究では、限られたトレーニングデータサンプルからQMLモデルを効果的に一般化できることが示されている。
QMLは、古典的および量子コンピューティングリソースの両方を利用するハイブリッドモデルである。
論文 参考訳(メタデータ) (2024-08-18T18:21:24Z) - Quantum Data Breach: Reusing Training Dataset by Untrusted Quantum Clouds [2.348041867134616]
量子クラウドの敵は、トレーニング中にQMLモデルのホワイトボックスアクセスを使用してラベルを抽出できることを示す。
抽出したトレーニングデータは、クローンモデルをトレーニングするために再利用したり、利益のために販売することができる。
本稿では,誤りラベルを抽出し,修正するための一連の手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T22:06:34Z) - The Quantum Imitation Game: Reverse Engineering of Quantum Machine Learning Models [2.348041867134616]
量子機械学習(QML)は、機械学習モデルと量子コンピューティングのパラダイムを融合させる。
量子コンピューティングのNoisy Intermediate-Scale Quantum(NISQ)時代における多くのサードパーティベンダーの拡大により、QMLモデルのセキュリティが最重要となる。
我々は、信頼できない量子クラウドプロバイダが、推論中にトランスパイルされたユーザ設計のトレーニングされたQMLモデルにホワイトボックスアクセスを持つ敵であると仮定する。
論文 参考訳(メタデータ) (2024-07-09T21:35:19Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Predominant Aspects on Security for Quantum Machine Learning: Literature Review [0.0]
量子機械学習(Quantum Machine Learning, QML)は、量子コンピューティングと古典的な機械学習の有望な交わりとして登場した。
本稿では,セキュリティ上の懸念と強みがQMLとどのように結びついているのかを,系統的な文献レビューを用いて論じる。
論文 参考訳(メタデータ) (2024-01-15T15:35:43Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z) - Towards Efficient Post-training Quantization of Pre-trained Language
Models [85.68317334241287]
PLMのポストトレーニング量子化(PTQ)について検討し,モジュール単位の量子化誤差最小化(MREM)を提案する。
GLUEとSQuADベンチマークの実験により、提案したPTQソリューションはQATに近く動作するだけでなく、トレーニング時間、メモリオーバーヘッド、データ消費を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-09-30T12:50:06Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Quantum machine learning with differential privacy [3.2442879131520126]
微分プライベート最適化アルゴリズムを用いて,プライバシ保存を訓練したハイブリッド量子古典モデルを開発した。
実験では、差分プライベートQMLは、モデル精度を低下させることなく、ユーザに敏感な情報を保護することができる。
論文 参考訳(メタデータ) (2021-03-10T18:06:15Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。