論文の概要: Privacy-Utility Tradeoffs in Quantum Information Processing
- arxiv url: http://arxiv.org/abs/2602.10510v1
- Date: Wed, 11 Feb 2026 04:21:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.461193
- Title: Privacy-Utility Tradeoffs in Quantum Information Processing
- Title(参考訳): 量子情報処理におけるプライバシ・ユーティリティのトレードオフ
- Authors: Theshani Nuradha, Sujeet Bhalerao, Felix Leditzky,
- Abstract要約: プライバシが$(varepsilon,)$-quantumローカルディファレンシャルプライバシによって定量化される場合、ジェネリックおよびアプリケーション固有のユーティリティメトリクスの両方に対して最適なトレードオフについて検討する。
我々は、高い確率で一定の精度を保証するのに必要なサンプル数に対する低い境界を導出する。
我々は、プライベートな学習タスクに有用な応用を約束する、プライベートな古典的な影の研究を開始することで、結論付ける。
- 参考スコア(独自算出の注目度): 13.088625380700933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When sensitive information is encoded in data, it is important to ensure the privacy of information when attempting to learn useful information from the data. There is a natural tradeoff whereby increasing privacy requirements may decrease the utility of a learning protocol. In the quantum setting of differential privacy, such tradeoffs between privacy and utility have so far remained largely unexplored. In this work, we study optimal privacy-utility tradeoffs for both generic and application-specific utility metrics when privacy is quantified by $(\varepsilon,δ)$-quantum local differential privacy. In the generic setting, we focus on optimizing fidelity and trace distance between the original state and the privatized state. We show that the depolarizing mechanism achieves the optimal utility for given privacy requirements. We then study the specific application of learning the expectation of an observable with respect to an input state when only given access to privatized states. We derive a lower bound on the number of samples of privatized data required to achieve a fixed accuracy guarantee with high probability. To prove this result, we employ existing lower bounds on private quantum hypothesis testing, thus showcasing the first operational use of them. We also devise private mechanisms that achieve optimal sample complexity with respect to the privacy parameters and accuracy parameters, demonstrating that utility can be significantly improved for specific tasks in contrast to the generic setting. In addition, we show that the number of samples required to privately learn observable expectation values scales as $Θ((\varepsilon β)^{-2})$, where $\varepsilon \in (0,1)$ is the privacy parameter and $β$ is the accuracy tolerance. We conclude by initiating the study of private classical shadows, which promise useful applications for private learning tasks.
- Abstract(参考訳): データに機密情報がエンコードされている場合、データから有用な情報を学習しようとする場合、情報のプライバシーを確保することが重要である。
プライバシー要件の増大により、学習プロトコルの有用性が低下する可能性があるという自然なトレードオフがある。
差分プライバシーの量子的設定では、プライバシーとユーティリティのトレードオフはいまだに明らかにされていない。
本研究では,プライバシを$(\varepsilon,δ)$-quantumローカルディファレンシャルプライバシで定量化する場合に,ジェネリックおよびアプリケーション固有のユーティリティメトリクスの両方に対する最適なプライバシユーティリティトレードオフを検討する。
汎用的な設定では、原状態と民営化状態の間の忠実度とトレース距離の最適化に重点を置いている。
偏極機構は,プライバシ要求に対して最適な有効性を実現することを示す。
次に、民営化状態へのアクセスのみを与えられた場合、入力状態に関して可観測物の期待を学習する特定の応用について研究する。
我々は、高い確率で一定の精度を保証するのに必要な民営化データのサンプル数に基づいて、低い境界を導出する。
この結果を証明するために、我々は、プライベート量子仮説テストにおいて既存の下位境界を用いており、それらの最初の運用上の使用例を示している。
また、プライバシパラメータや精度パラメータに関して最適なサンプル複雑性を実現するためのプライベートメカニズムを考案し、汎用的な設定とは対照的に、特定のタスクに対して実用性を大幅に改善できることを実証した。
さらに、観測可能な期待値をプライベートに学習するために必要なサンプルの数は、$((\varepsilon β)^{-2})$で、$\varepsilon \in (0,1)$はプライバシパラメータ、$β$は精度トレランスであることを示す。
我々は、プライベートな学習タスクに有用な応用を約束する、プライベートな古典的な影の研究を開始することで、結論付ける。
関連論文リスト
- High-Dimensional Asymptotics of Differentially Private PCA [4.168157981135696]
差分プライバシーでは、機密データセットの統計はランダムノイズを導入することで民営化される。
このような高い騒音レベルが本当に必要か、あるいは証明技術に限界があるのかは、まだ不明である。
本稿では,ターゲットのプライバシレベルを達成するために必要な最小のノイズレベルを識別する,シャープなプライバシ特性を得ることができるかを検討する。
論文 参考訳(メタデータ) (2025-11-10T16:17:16Z) - Private Hyperparameter Tuning with Ex-Post Guarantee [98.43027866582979]
「実用優先」のプライバシメカニズムは、望ましいユーティリティレベルを優先し、それに対応するプライバシコストを決定する。
Wu et al. [2019] と Liu と Talwar [2019] の作業を拡張して,プライベートな見積りのシーケンスをサポートします。
最適なプライバシ予算の選択を含む,これらの推定器のハイパーパラメータチューニングは,追加のプライバシコストなしで行うことができることを示す。
論文 参考訳(メタデータ) (2025-08-21T02:42:23Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Quantifying identifiability to choose and audit $\epsilon$ in
differentially private deep learning [15.294433619347082]
機械学習で差分プライバシーを使用するには、データサイエンティストがプライバシパラメータを$(epsilon,delta)$を選択する必要がある。
私たちは$(epsilon,delta)$を、トレーニングデータセット内のレコードの存在に関する差分プライバシーによって想定される相手のベイジアン後方信念にバインドに変換します。
我々は、データサイエンティストがモデルのトレーニングを監査し、経験的識別可能性スコアと経験的$(epsilon,delta)$を計算することを可能にするこの差分プライバシーの敵対の実装を策定します。
論文 参考訳(メタデータ) (2021-03-04T09:35:58Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。