論文の概要: Efficient Privacy-Preserving Training of Quantum Neural Networks by Using Mixed States to Represent Input Data Ensembles
- arxiv url: http://arxiv.org/abs/2509.12465v1
- Date: Mon, 15 Sep 2025 21:20:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.774257
- Title: Efficient Privacy-Preserving Training of Quantum Neural Networks by Using Mixed States to Represent Input Data Ensembles
- Title(参考訳): 混合状態を用いた入力データ集合表現による量子ニューラルネットワークの高能率プライバシ保護訓練
- Authors: Gaoyuan Wang, Jonathan Warrell, Mark Gerstein,
- Abstract要約: 量子ニューラルネットワーク(QNN)は、データの複雑なパターンを検出する可能性から、関心が高まっている。
本稿では、混合量子状態を用いてデータのアンサンブルを符号化するプライバシー保護QNNトレーニング手法を提案する。
提案手法の実用性とプライバシ保護の理論的基盤を提示し,個々のデータポイントの回復を防止する。
- 参考スコア(独自算出の注目度): 3.941009336558021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum neural networks (QNNs) are gaining increasing interest due to their potential to detect complex patterns in data by leveraging uniquely quantum phenomena. This makes them particularly promising for biomedical applications. In these applications and in other contexts, increasing statistical power often requires aggregating data from multiple participants. However, sharing data, especially sensitive information like personal genomic sequences, raises significant privacy concerns. Quantum federated learning offers a way to collaboratively train QNN models without exposing private data. However, it faces major limitations, including high communication overhead and the need to retrain models when the task is modified. To overcome these challenges, we propose a privacy-preserving QNN training scheme that utilizes mixed quantum states to encode ensembles of data. This approach allows for the secure sharing of statistical information while safeguarding individual data points. QNNs can be trained directly on these mixed states, eliminating the need to access raw data. Building on this foundation, we introduce protocols supporting multi-party collaborative QNN training applicable across diverse domains. Our approach enables secure QNN training with only a single round of communication per participant, provides high training speed and offers task generality, i.e., new analyses can be conducted without reacquiring information from participants. We present the theoretical foundation of our scheme's utility and privacy protections, which prevent the recovery of individual data points and resist membership inference attacks as measured by differential privacy. We then validate its effectiveness on three different datasets with a focus on genomic studies with an indication of how it can used in other domains without adaptation.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、ユニークな量子現象を活用することで、データの複雑なパターンを検出する可能性から、関心が高まっている。
これにより、特にバイオメディカルな応用が期待できる。
これらのアプリケーションや他のコンテキストでは、統計能力の増大は、複数の参加者からのデータを集約する必要があることが多い。
しかし、データの共有、特に個人のゲノム配列のようなセンシティブな情報は、重要なプライバシー上の懸念を引き起こす。
量子フェデレーション学習は、プライベートデータを公開せずにQNNモデルを協調的にトレーニングする方法を提供する。
しかし、高い通信オーバーヘッドや、タスクが修正されたときにモデルを再トレーニングする必要性など、大きな制限に直面している。
これらの課題を克服するために、混合量子状態を用いてデータのアンサンブルを符号化するプライバシー保護型QNNトレーニングスキームを提案する。
このアプローチは、個々のデータポイントを保護しながら、統計情報の安全な共有を可能にする。
QNNはこれらの混合状態を直接トレーニングすることができ、生データにアクセスする必要がなくなる。
この基盤を基盤として,多様な領域にまたがる多人数協調型QNNトレーニングを支援するプロトコルを提案する。
提案手法は,参加者1人当たり1ラウンドのコミュニケーションでセキュアなQNNトレーニングを可能にし,高いトレーニング速度を提供し,タスクの汎用性を提供する。
提案手法の実用性とプライバシ保護の理論的基礎を述べる。これは個々のデータポイントの回復を防ぎ,差分プライバシーによって測定されたメンバシップ推論攻撃に抵抗する。
その効果を3つの異なるデータセットで検証し、ゲノム研究に焦点をあて、適応せずに他のドメインでどのように使用できるかを示す。
関連論文リスト
- On the Privacy-Preserving Properties of Spiking Neural Networks with Unique Surrogate Gradients and Quantization Levels [0.0]
メンバーシップアタック(MIA)は、トレーニング中に特定のデータポイントが使用されたかどうかを推測するためにモデル応答を利用する。
以前の研究では、スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワーク(ANN)よりもMIAに対するレジリエンスが高いことが示唆されていた。
このレジリエンスは、モデル応答と個々のトレーニングサンプルの相関を曖昧にする、非微分不可能なアクティベーションと固有精度に由来する。
論文 参考訳(メタデータ) (2025-02-25T20:14:14Z) - FedQNN: Federated Learning using Quantum Neural Networks [3.9554540293311864]
本研究では,分散ネットワークを用いた量子機械学習(QML)モデルをトレーニングするためのフレームワークとして,量子フェデレートラーニング(QFL)の革新的な領域について検討する。
提案するFederated Quantum Neural Network (FedQNN) フレームワークは,QMLの特徴と古典的フェデレーション学習の原理を融合した最先端のソリューションとして出現する。
論文 参考訳(メタデータ) (2024-03-16T08:58:03Z) - Neural Network Training on Encrypted Data with TFHE [0.0]
ニューラルネットワークのトレーニングをアウトソーシングする上で,悪意のある関係者からのデータの機密性を確保しながら,そのアウトソーシングを行うアプローチを提案する。
完全に同型な暗号化を使用して、暗号化データで動作し、量子化されたニューラルネットワークモデルを学ぶ統一的なトレーニングアプローチを構築します。
論文 参考訳(メタデータ) (2024-01-29T13:07:08Z) - Privacy-Preserved Neural Graph Databases [48.57788773216699]
NGDBにおけるプライバシー漏洩のリスクを軽減するために,プライバシ保存型ニューラルグラフデータベース(P-NGDB)フレームワークを提案する。
本研究は,NGDBを訓練段階に導入し,個人情報で質問したときの識別不能な回答を生成する。
論文 参考訳(メタデータ) (2023-12-25T02:32:05Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Secure & Private Federated Neuroimaging [17.946206585229675]
Federated Learningは、データを共有することなく、複数のデータソース上でニューラルネットワークモデルの分散トレーニングを可能にする。
各サイトは、ニューラルネットワークをプライベートデータ上でしばらくトレーニングし、ニューラルネットワークパラメータをフェデレーションコントローラと共有する。
当社のフェデレートラーニングアーキテクチャであるMetisFLは、強力なセキュリティとプライバシを提供します。
論文 参考訳(メタデータ) (2022-05-11T03:36:04Z) - Quantum Private Distributed Learning Through Blind Quantum Computing [2.081930455526026]
本稿では,プライベートデータを安全に保持しつつ,リモート量子サーバの計算能力を活用できる分散学習のための量子プロトコルを提案する。
私たちのプロトコルは実験的な欠陥に対して堅牢であり、差分プライバシーを組み込んだ後の勾配攻撃下で安全です。
論文 参考訳(メタデータ) (2021-03-15T14:26:01Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。