論文の概要: From Membership-Privacy Leakage to Quantum Machine Unlearning
- arxiv url: http://arxiv.org/abs/2509.06086v2
- Date: Thu, 16 Oct 2025 05:29:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 16:37:10.474473
- Title: From Membership-Privacy Leakage to Quantum Machine Unlearning
- Title(参考訳): 会員資格の漏洩から量子機械の学習へ
- Authors: Junjian Su, Runze He, Guanghui Li, Sujuan Qin, Zhimin He, Haozhen Situ, Fei Gao,
- Abstract要約: 量子機械学習(QML)は、量子計算と古典機械学習(ML)を組み合わせることで、特定のタスクに対して量子的優位性を達成することができる。
古典的なMLでは、メンバーシッププライバシーの漏洩が大きな問題であり、攻撃者はトレーニングで特定のデータが使用されたかどうかをモデル出力から推測することができる。
我々は、QMLモデルがトレーニングデータについてメンバーシッププライバシを漏らし、MUメソッドがQMLモデルにおけるそのようなリークを効果的に軽減できるかという2つの研究課題を調査する。
- 参考スコア(独自算出の注目度): 7.598623786321504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Machine Learning (QML) has the potential to achieve quantum advantage for specific tasks by combining quantum computation with classical Machine Learning (ML). In classical ML, a significant challenge is membership privacy leakage, whereby an attacker can infer from model outputs whether specific data were used in training. When specific data are required to be withdrawn, removing their influence from the trained model becomes necessary. Machine Unlearning (MU) addresses this issue by enabling the model to forget the withdrawn data, thereby preventing membership privacy leakage. However, this leakage remains underexplored in QML. This raises two research questions: do QML models leak membership privacy about their training data, and can MU methods efficiently mitigate such leakage in QML models? We investigate these questions using two QNN architectures, a basic Quantum Neural Network (basic QNN) and a Hybrid QNN (HQNN), evaluated in noiseless simulations and on quantum hardware. For the first question, we design a Membership Inference Attack (MIA) tailored to QNN in a gray-box setting. Our experiments indicate clear evidence of leakage of membership privacy in both QNNs. For the second question, we propose a Quantum Machine Unlearning (QMU) framework, comprising three MU mechanisms. Experiments on two QNN architectures show that QMU removes the influence of the withdrawn data while preserving accuracy on retained data. A comparative analysis further characterizes the three MU mechanisms with respect to data dependence, computational cost, and robustness. Overall, this work provides a potential path towards privacy-preserving QML.
- Abstract(参考訳): 量子機械学習(QML)は、量子計算と古典機械学習(ML)を組み合わせることで、特定のタスクに対して量子的優位性を達成する可能性がある。
古典的なMLでは、メンバーシッププライバシーの漏洩が大きな問題であり、攻撃者はトレーニングで特定のデータが使用されたかどうかをモデル出力から推測することができる。
特定のデータを取り出す必要がある場合、トレーニングされたモデルからの影響を取り除く必要がある。
マシン・アンラーニング(MU)は、モデルが削除されたデータを忘れることを可能にし、会員プライバシーの漏洩を防止することでこの問題に対処する。
しかし、このリークはQMLでは未発見のままである。
QMLモデルはトレーニングデータに関するメンバシップのプライバシを漏らし、MUメソッドはQMLモデルのそのようなリークを効率的に軽減できるのか?
本稿では,2つのQNNアーキテクチャ,基本量子ニューラルネットワーク (基礎QNN) とハイブリッドQNN (HQNN) を用いて,ノイズレスシミュレーションおよび量子ハードウェア上での評価を行った。
最初の質問では、グレーボックス設定でQNNに適したメンバーシップ推論攻撃(MIA)を設計する。
両QNNにおけるメンバーシッププライバシの漏洩の明確な証拠を示す実験を行った。
第2の質問では,3つのMU機構からなる量子機械アンラーニング(QMU)フレームワークを提案する。
2つのQNNアーキテクチャの実験により、QMUは保持されたデータに対する精度を維持しながら、削除されたデータの影響を除去することを示した。
比較分析により、データ依存、計算コスト、堅牢性に関する3つのMUメカニズムが特徴づけられる。
全体として、この作業はプライバシ保護QMLへの潜在的な道筋を提供する。
関連論文リスト
- Quantum Quandaries: Unraveling Encoding Vulnerabilities in Quantum Neural Networks [2.348041867134616]
この研究は、量子クラウド環境の敵がQMLモデルへのホワイトボックスアクセスを活用できることを実証している。
95%の時間、符号化が正しく予測可能であることを報告した。
この脅威を軽減するために,指紋を隠蔽する一過性の難読化層を提案する。
論文 参考訳(メタデータ) (2025-02-03T16:21:16Z) - Adversarial Data Poisoning Attacks on Quantum Machine Learning in the NISQ Era [2.348041867134616]
量子機械学習(QML)ドメインにおける重要な関心事は、現在の量子クラウド設定におけるデータ中毒攻撃の脅威である。
本研究ではまず,符号化回路の出力を分析することで,クラス内エンコーダ状態類似度(ESS)を簡易かつ効果的に測定する手法を提案する。
ノイズのない環境とノイズの多い環境の両方で行われた広範な実験を通じて、我々は、UnderlineQuantum UnderlineIndiscriminate UnderlineData Poisoning attack, QUIDを紹介した。
論文 参考訳(メタデータ) (2024-11-21T18:46:45Z) - Security Concerns in Quantum Machine Learning as a Service [2.348041867134616]
量子機械学習(Quantum Machine Learning、QML)は、変分量子回路(VQC)を用いて機械学習タスクに取り組むアルゴリズムのカテゴリである。
近年の研究では、限られたトレーニングデータサンプルからQMLモデルを効果的に一般化できることが示されている。
QMLは、古典的および量子コンピューティングリソースの両方を利用するハイブリッドモデルである。
論文 参考訳(メタデータ) (2024-08-18T18:21:24Z) - Quantum Data Breach: Reusing Training Dataset by Untrusted Quantum Clouds [2.348041867134616]
量子クラウドの敵は、トレーニング中にQMLモデルのホワイトボックスアクセスを使用してラベルを抽出できることを示す。
抽出したトレーニングデータは、クローンモデルをトレーニングするために再利用したり、利益のために販売することができる。
本稿では,誤りラベルを抽出し,修正するための一連の手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T22:06:34Z) - The Quantum Imitation Game: Reverse Engineering of Quantum Machine Learning Models [2.348041867134616]
量子機械学習(QML)は、機械学習モデルと量子コンピューティングのパラダイムを融合させる。
量子コンピューティングのNoisy Intermediate-Scale Quantum(NISQ)時代における多くのサードパーティベンダーの拡大により、QMLモデルのセキュリティが最重要となる。
我々は、信頼できない量子クラウドプロバイダが、推論中にトランスパイルされたユーザ設計のトレーニングされたQMLモデルにホワイトボックスアクセスを持つ敵であると仮定する。
論文 参考訳(メタデータ) (2024-07-09T21:35:19Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Predominant Aspects on Security for Quantum Machine Learning: Literature Review [0.0]
量子機械学習(Quantum Machine Learning, QML)は、量子コンピューティングと古典的な機械学習の有望な交わりとして登場した。
本稿では,セキュリティ上の懸念と強みがQMLとどのように結びついているのかを,系統的な文献レビューを用いて論じる。
論文 参考訳(メタデータ) (2024-01-15T15:35:43Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z) - Towards Efficient Post-training Quantization of Pre-trained Language
Models [85.68317334241287]
PLMのポストトレーニング量子化(PTQ)について検討し,モジュール単位の量子化誤差最小化(MREM)を提案する。
GLUEとSQuADベンチマークの実験により、提案したPTQソリューションはQATに近く動作するだけでなく、トレーニング時間、メモリオーバーヘッド、データ消費を大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-09-30T12:50:06Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Quantum machine learning with differential privacy [3.2442879131520126]
微分プライベート最適化アルゴリズムを用いて,プライバシ保存を訓練したハイブリッド量子古典モデルを開発した。
実験では、差分プライベートQMLは、モデル精度を低下させることなく、ユーザに敏感な情報を保護することができる。
論文 参考訳(メタデータ) (2021-03-10T18:06:15Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。