論文の概要: Gaussian Differential Private Bootstrap by Subsampling
- arxiv url: http://arxiv.org/abs/2505.01197v1
- Date: Fri, 02 May 2025 11:40:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:20.00504
- Title: Gaussian Differential Private Bootstrap by Subsampling
- Title(参考訳): サブサンプリングによるガウス微分プライベートブートストラップ
- Authors: Holger Dette, Carina Graw,
- Abstract要約: 我々は、$n$ブートストラップから$m$のプライベートな経験的価格を提案し、その一貫性とプライバシー保証を差分プライバシの下で検証する。
ブートストラップ$n$のプライベートな$n$と比較して、私たちのアプローチにはいくつかの利点があります。まず、計算コストの削減、特に大規模データについて。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Bootstrap is a common tool for quantifying uncertainty in data analysis. However, besides additional computational costs in the application of the bootstrap on massive data, a challenging problem in bootstrap based inference under Differential Privacy consists in the fact that it requires repeated access to the data. As a consequence, bootstrap based differentially private inference requires a significant increase of the privacy budget, which on the other hand comes with a substantial loss in statistical accuracy. A potential solution to reconcile the conflicting goals of statistical accuracy and privacy is to analyze the data under parametric model assumptions and in the last decade, several parametric bootstrap methods for inference under privacy have been investigated. However, uncertainty quantification by parametric bootstrap is only valid if the the quantities of interest can be identified as the parameters of a statistical model and the imposed model assumptions are (at least approximately) satisfied. An alternative to parametric methods is the empirical bootstrap that is a widely used tool for non-parametric inference and well studied in the non-private regime. However, under privacy, less insight is available. In this paper, we propose a private empirical $m$ out of $n$ bootstrap and validate its consistency and privacy guarantees under Gaussian Differential Privacy. Compared to the the private $n$ out of $n$ bootstrap, our approach has several advantages. First, it comes with less computational costs, in particular for massive data. Second, the proposed procedure needs less additional noise in the bootstrap iterations, which leads to an improved statistical accuracy while asymptotically guaranteeing the same level of privacy. Third, we demonstrate much better finite sample properties compared to the currently available procedures.
- Abstract(参考訳): Bootstrapは、データ分析の不確実性を定量化する一般的なツールである。
しかし、ブートストラップを大規模データに適用する際の計算コストの増大に加えて、差分プライバシーの下でのブートストラップに基づく推論の難しい問題は、データへの繰り返しアクセスを必要とするという事実にある。
その結果、ブートストラップに基づく差分プライベート推論では、プライバシー予算が大幅に増加し、一方で統計的精度が著しく低下する。
統計的精度とプライバシの相反する目標を解明する潜在的な解決策は、パラメトリックモデル仮定の下でデータを解析することであり、この10年間で、プライバシの下での推論のためのいくつかのパラメトリックブートストラップ手法が研究されている。
しかし、パラメトリックブートストラップによる不確実性定量化は、統計モデルのパラメータとして興味の量を特定することができ、与えられたモデルの仮定が(少なくともほぼ)満足している場合にのみ有効である。
パラメトリック法に代わる方法として、非パラメトリック推論のための広く使われている経験的ブートストラップがあり、非プライベートな体制でよく研究されている。
しかし、プライバシーの下では、より少ない洞察しか得られない。
本稿では,Kaussian Differential Privacyの下で,ブートストラップとして$n$から$m$をプライベートに提案し,一貫性とプライバシ保証を検証した。
プライベートな$n$のブートストラップと比較して、私たちのアプローチにはいくつかの利点があります。
第一に、計算コストの削減だ。
第二に、ブートストラップの繰り返しにおいて、提案手法はより少ないノイズを必要とするため、同じレベルのプライバシーを漸近的に保証しながら、統計的精度が向上する。
第3に、現在利用可能な手順と比較して、より優れた有限標本特性を示す。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Uncertainty quantification by block bootstrap for differentially private stochastic gradient descent [1.0742675209112622]
Gradient Descent (SGD) は機械学習において広く使われているツールである。
ブートストラップによるSGDの不確実性定量化(UQ)は、いくつかの著者によって解決されている。
本稿では,ローカルな差分プライバシーの下でSGDのブロックブートストラップを提案する。
論文 参考訳(メタデータ) (2024-05-21T07:47:21Z) - Resampling methods for private statistical inference [1.8110941972682346]
我々は、信頼区間を異なるプライバシーで構築する作業について検討する。
データのパーティション上で実行される複数の"小さな"ブートストラップの結果の中央値をプライベートに計算する,非パラメトリックブートストラップの2つのプライベート変種を提案する。
固定された差分プライバシーパラメータ$epsilon$に対して、我々のメソッドは、サンプルサイズ$n$の対数係数内の非プライベートブートストラップと同じエラー率を享受します。
論文 参考訳(メタデータ) (2024-02-11T08:59:02Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - On the Intrinsic Differential Privacy of Bagging [69.70602220716718]
我々は、Bagingが、同じプライバシー予算を持つ最先端の差分プライベート機械学習手法よりも、はるかに高い精度を達成することを示す。
実験結果から,Bagingは,同一のプライバシー予算を持つ最先端の差分プライベート機械学習手法よりも格段に高い精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-08-22T14:17:55Z) - Parametric Bootstrap for Differentially Private Confidence Intervals [8.781431682774484]
本研究では,個人差分パラメトリック推定のための信頼区間を構築するための実用的,汎用的なアプローチを開発する。
パラメトリックブートストラップは単純で効果的な解であることがわかった。
論文 参考訳(メタデータ) (2020-06-14T00:08:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。