論文の概要: Tight Sample Complexity Bounds for Parameter Estimation Under Quantum Differential Privacy for Qubits
- arxiv url: http://arxiv.org/abs/2501.14184v1
- Date: Fri, 24 Jan 2025 02:23:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:57:08.112564
- Title: Tight Sample Complexity Bounds for Parameter Estimation Under Quantum Differential Privacy for Qubits
- Title(参考訳): 量子差分プライバシに基づく量子パラメータ推定のためのTight Sample Complexity bounds
- Authors: Farhad Farokhi,
- Abstract要約: このノートは、所定の精度を達成するために必要な最小限のサンプル数(誤差分散によって測定される)に対して、厳密な上下境界を提供する。
小さなプライバシー予算である$epsilon$ regime、すなわち$epsilonll 1$では、サンプルの複雑さは$Theta(epsilon-2)$にスケールする。
例えば$epsilongg 1$という大きなプライバシー予算体系では、境界が低い(0に収束する)が、ノイズのないケースではパラメータ推定の厳密な境界が広く知られているため、このケースは特に興味深いものではない。
- 参考スコア(独自算出の注目度): 9.244521717083696
- License:
- Abstract: This short note provides tight upper and lower bounds for minimal number of samples (copies of quantum states) required to attain a prescribed accuracy (measured by error variance) for scalar parameters using unbiased estimators under quantum local differential privacy for qubits. In the small privacy budget $\epsilon$ regime, i.e., $\epsilon\ll 1$, the sample complexity scales as $\Theta(\epsilon^{-2})$. This bound matches that of classical parameter estimation under differential privacy. The lower bound loosens (converges to zero) in the large privacy budget regime, i.e., $\epsilon\gg 1$, but that case is not particularly interesting as tight bounds for parameter estimation in the noiseless case are widely known. That being said, extensions to systems with higher dimensions and tightening the bounds for the large privacy budget regime are interesting avenues for future research.
- Abstract(参考訳): このショートノートは、量子局所微分プライバシーの下で非バイアス推定器を用いて、スカラーパラメータの所定の精度(誤差分散によって測定される)を達成するために必要な最小数のサンプル(量子状態のコピー)に対して、厳密な上下境界を提供する。
小さなプライバシー予算である$\epsilon$ regime、すなわち$\epsilon\ll 1$では、サンプルの複雑さは$\Theta(\epsilon^{-2})$にスケールする。
この境界は、差分プライバシーの下での古典的パラメータ推定と一致する。
大規模なプライバシー予算体系(例えば$\epsilon\gg 1$)における下限のゆるみ(0に収束する)は、ノイズレスの場合のパラメータ推定の厳密な境界が広く知られているため、特に興味深いものではない。
とはいえ、より高次元のシステムへの拡張と、大規模なプライバシー予算体制の限界の厳格化は、将来の研究にとって興味深い道のりだ。
関連論文リスト
- Differentially Private Best-Arm Identification [14.916947598339988]
ベストアーム識別(BAI)問題は、データセンシティブなアプリケーションに徐々に使われている。
これらのアプリケーションによって引き起こされるデータプライバシの懸念に触発され、ローカルモデルと中央モデルの両方に一定の信頼を保ちながら、BAIの問題を研究する。
論文 参考訳(メタデータ) (2024-06-10T16:02:48Z) - On the existence of unbiased resilient estimators in discrete quantum systems [0.0]
Bhattacharyyaのバウンダリは、事前の正確性に関して、より堅牢な推定フレームワークを提供する。
制約数が測定結果を超えると、有限分散の推定器は存在しないことが示される。
論文 参考訳(メタデータ) (2024-02-23T10:12:35Z) - Fixed-Budget Differentially Private Best Arm Identification [62.36929749450298]
差分プライバシー制約下における固定予算制度における線形包帯のベストアーム識別(BAI)について検討した。
誤差確率に基づいてミニマックス下限を導出し、下限と上限が指数関数的に$T$で崩壊することを示した。
論文 参考訳(メタデータ) (2024-01-17T09:23:25Z) - A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - On the Complexity of Differentially Private Best-Arm Identification with
Fixed Confidence [16.295693624977563]
我々は、$epsilon$-global Differential Privacyの下で、信頼度を固定したベストアーム識別の問題について検討する。
われわれの限界は、プライバシー予算によって2つのプライバシー体制が存在することを示唆している。
我々はトップ2アルゴリズムの$epsilon$-global DP変種であるAdaP-TTを提案する。
論文 参考訳(メタデータ) (2023-09-05T13:07:25Z) - Privacy Amplification via Shuffling: Unified, Simplified, and Tightened [20.10078781197001]
シングルメッセージとマルチメッセージのシャッフルプロトコルの両方において、プライバシーを増幅するための包括的なフレームワークを提案する。
我々の理論的な結果は、特に極端確率設計を持つ局所確率化器に対して、我々のフレームワークがより厳密な境界を提供することを示している。
私たちのバウンダリは、非常に効率的な$tildeO(n)$アルゴリズムで、$n=108$ユーザに対して10$秒未満で、数値的にプライバシを増幅します。
論文 参考訳(メタデータ) (2023-04-11T06:27:25Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。