論文の概要: Guaranteeing Privacy in Hybrid Quantum Learning through Theoretical Mechanisms
- arxiv url: http://arxiv.org/abs/2602.02364v1
- Date: Mon, 02 Feb 2026 17:23:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.323862
- Title: Guaranteeing Privacy in Hybrid Quantum Learning through Theoretical Mechanisms
- Title(参考訳): 理論的メカニズムによるハイブリッド量子学習におけるプライバシの確保
- Authors: Hoang M. Ngo, Tre' R. Jeter, Incheol Shin, Wanli Xing, Tamer Kahveci, My T. Thai,
- Abstract要約: 本稿では,QMLモデルのプライバシを保護するために古典ノイズと量子ノイズを組み合わせたハイブリッドノイズ付加機構HYPER-Qを提案する。
我々は、プライバシー保証に関する包括的な分析を行い、その実用性に関する理論的境界を確立する。
- 参考スコア(独自算出の注目度): 9.358368916437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Machine Learning (QML) is becoming increasingly prevalent due to its potential to enhance classical machine learning (ML) tasks, such as classification. Although quantum noise is often viewed as a major challenge in quantum computing, it also offers a unique opportunity to enhance privacy. In particular, intrinsic quantum noise provides a natural stochastic resource that, when rigorously analyzed within the differential privacy (DP) framework and composed with classical mechanisms, can satisfy formal $(\varepsilon, δ)$-DP guarantees. This enables a reduction in the required classical perturbation without compromising the privacy budget, potentially improving model utility. However, the integration of classical and quantum noise for privacy preservation remains unexplored. In this work, we propose a hybrid noise-added mechanism, HYPER-Q, that combines classical and quantum noise to protect the privacy of QML models. We provide a comprehensive analysis of its privacy guarantees and establish theoretical bounds on its utility. Empirically, we demonstrate that HYPER-Q outperforms existing classical noise-based mechanisms in terms of adversarial robustness across multiple real-world datasets.
- Abstract(参考訳): 量子機械学習(QML)は、分類などの古典的な機械学習(ML)タスクを強化する可能性から、ますます普及しつつある。
量子ノイズはしばしば量子コンピューティングにおける大きな課題と見なされるが、プライバシーを強化するユニークな機会を提供する。
特に、内在的な量子ノイズは、微分プライバシー(DP)フレームワーク内で厳密に分析され、古典的なメカニズムで構成されるとき、形式的な$(\varepsilon, δ)$-DP保証を満たすことができるような自然な確率的資源を提供する。
これにより、プライバシー予算を損なうことなく、必要な古典的摂動を減らすことができ、モデルの有用性が向上する可能性がある。
しかし、プライバシ保護のための古典的および量子的ノイズの統合は、まだ検討されていない。
本研究では,QMLモデルのプライバシを保護するために,古典的ノイズと量子的ノイズを組み合わせたハイブリッドノイズ付加機構HYPER-Qを提案する。
我々は、プライバシー保証に関する包括的な分析を行い、その実用性に関する理論的境界を確立する。
実験により、HYPER-Qは複数の実世界のデータセットにまたがる対角的ロバスト性の観点から、既存の古典的ノイズベースメカニズムよりも優れていることを示した。
関連論文リスト
- Readout-Side Bypass for Residual Hybrid Quantum-Classical Models [3.609274776085931]
量子機械学習(QML)はコンパクトで表現力のある表現を約束するが、測定ボトルネックに悩まされる。
本稿では,分類前の生入力で量子的特徴を確認可能な,軽量な残差ハイブリッドアーキテクチャを提案する。
我々のモデルは、低通信コストとプライバシーの堅牢性を保ちながら、量子ベースラインよりも最大で55%精度が向上する。
論文 参考訳(メタデータ) (2025-11-25T23:27:53Z) - Trustworthy Quantum Machine Learning: A Roadmap for Reliability, Robustness, and Security in the NISQ Era [3.1351527202068445]
この研究は、TQML(Trustworthy Quantum Machine Learning)の幅広いロードマップを提供する。
i) 校正およびリスク対応意思決定のための不確実な定量化、(ii) 古典的および量子ネイティブな脅威モデルに対する堅牢性、(iii) 分散および委譲された量子学習シナリオにおけるプライバシー保護の3つの基本的柱を統合する。
このロードマップは、信頼性を量子AIの第一級設計目標として定義することを目指している。
論文 参考訳(メタデータ) (2025-11-04T14:24:17Z) - TensorHyper-VQC: A Tensor-Train-Guided Hypernetwork for Robust and Scalable Variational Quantum Computing [50.95799256262098]
量子機械学習のための新しいテンソルトレイン(TT)誘導ハイパーネットワークフレームワークであるHyper-VQCを紹介する。
我々のフレームワークは、量子回路パラメータの生成を古典的なTTネットワークに委譲し、量子ハードウェアから最適化を効果的に分離する。
これらの結果から、Hyper-VQCは、短期デバイス上での実用的な量子機械学習を促進するためのスケーラブルで耐雑音性のあるフレームワークとして位置づけられる。
論文 参考訳(メタデータ) (2025-08-01T23:37:55Z) - VQC-MLPNet: An Unconventional Hybrid Quantum-Classical Architecture for Scalable and Robust Quantum Machine Learning [50.95799256262098]
変分量子回路(VQC)は量子機械学習を約束するが、表現性、訓練性、耐雑音性の課題に直面している。
本稿では,VQCが学習中に古典多層パーセプトロンの第一層重みを生成するハイブリッドアーキテクチャであるVQC-MLPNetを提案する。
論文 参考訳(メタデータ) (2025-06-12T01:38:15Z) - Provably Robust Training of Quantum Circuit Classifiers Against Parameter Noise [49.97673761305336]
ノイズは、信頼できる量子アルゴリズムを達成するための大きな障害である。
本稿では,パラメータ化量子回路分類器のロバスト性を高めるための雑音耐性学習理論とアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-05-24T02:51:34Z) - Towards A Hybrid Quantum Differential Privacy [22.644150711891008]
量子微分プライバシー(QDP)は、固有の量子ノイズを利用してプライバシーを保護する。
本稿では,QDPに有用なノイズタイプを特定し,理論的モデルを超えた実用的な実装の必要性を強調した。
論文 参考訳(メタデータ) (2025-01-14T05:13:37Z) - Optimal Mechanisms for Quantum Local Differential Privacy [2.773175214444248]
ローカルディファレンシャルプライバシ(QLDP)は、すべての状態が隣接する状態と見なされる古典的なシナリオと同様に、量子データのプライバシを保存するために提案されている。
本稿では、QLDPフレームワークの実用性を高めるために、プライバシとユーティリティのバランスをとるための最適なQLDPメカニズムについて検討する。
論文 参考訳(メタデータ) (2024-07-18T13:46:16Z) - GQHAN: A Grover-inspired Quantum Hard Attention Network [53.96779043113156]
GQHAM(Grover-inspired Quantum Hard Attention Mechanism)を提案する。
GQHANは、既存の量子ソフト自己保持機構の有効性を超越して、非微分可能性ハードルをかなり上回っている。
GQHANの提案は、将来の量子コンピュータが大規模データを処理する基盤を築き、量子コンピュータビジョンの開発を促進するものである。
論文 参考訳(メタデータ) (2024-01-25T11:11:16Z) - Harnessing Inherent Noises for Privacy Preservation in Quantum Machine
Learning [11.45148186874482]
我々は,量子機械学習におけるデータプライバシ保護に固有の量子ノイズを活用することを提案する。
特に、ノイズ中規模量子(NISQ)デバイスを考えると、避けられないショットノイズと非コヒーレントノイズを利用する。
論文 参考訳(メタデータ) (2023-12-18T11:52:44Z) - Error mitigation and quantum-assisted simulation in the error corrected
regime [77.34726150561087]
量子コンピューティングの標準的なアプローチは、古典的にシミュレート可能なフォールトトレラントな演算セットを促進するという考え方に基づいている。
量子回路の古典的準確率シミュレーションをどのように促進するかを示す。
論文 参考訳(メタデータ) (2021-03-12T20:58:41Z) - Quantum noise protects quantum classifiers against adversaries [120.08771960032033]
量子情報処理におけるノイズは、特に短期的な量子技術において、破壊的で避け難い特徴と見なされることが多い。
量子回路の非偏極雑音を利用して分類を行うことにより、敵に縛られるロバスト性を導出できることを示す。
これは、最も一般的な敵に対して使用できる最初の量子プロトコルである。
論文 参考訳(メタデータ) (2020-03-20T17:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。