論文の概要: Differentially Private Bootstrap: New Privacy Analysis and Inference
Strategies
- arxiv url: http://arxiv.org/abs/2210.06140v1
- Date: Wed, 12 Oct 2022 12:48:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 13:46:05.418235
- Title: Differentially Private Bootstrap: New Privacy Analysis and Inference
Strategies
- Title(参考訳): Differentially Private Bootstrap: 新たなプライバシ分析と推論戦略
- Authors: Zhanyu Wang, Guang Cheng, Jordan Awan
- Abstract要約: 本研究では,DPブートストラップ手順を解析し,複数のプライベートブートストラップ推定値を出力し,サンプリング分布を推定し,信頼区間を構築する。
本研究では,DP推定値に基づく統計的手法を開発し,確率測定のデコンボリューションに関する手法を用いてサンプリング分布を正確に推定する。
- 参考スコア(独自算出の注目度): 28.95350475681164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential private (DP) mechanisms protect individual-level information by
introducing randomness into the statistical analysis procedure. While there are
now many DP tools for various statistical problems, there is still a lack of
general techniques to understand the sampling distribution of a DP estimator,
which is crucial for uncertainty quantification in statistical inference. We
analyze a DP bootstrap procedure that releases multiple private bootstrap
estimates to infer the sampling distribution and construct confidence
intervals. Our privacy analysis includes new results on the privacy cost of a
single DP bootstrap estimate applicable to incorporate arbitrary DP mechanisms
and identifies some misuses of the bootstrap in the existing literature. We
show that the release of $B$ DP bootstrap estimates from mechanisms satisfying
$(\mu/\sqrt{(2-2/\mathrm{e})B})$-Gaussian DP asymptotically satisfies
$\mu$-Gaussian DP as $B$ goes to infinity. We also develop a statistical
procedure based on the DP bootstrap estimates to correctly infer the sampling
distribution using techniques related to the deconvolution of probability
measures, an approach which is novel in analyzing DP procedures. From our
density estimate, we construct confidence intervals and compare them to
existing methods through simulations and real-world experiments using the 2016
Canada Census Public Use Microdata. The coverage of our private confidence
intervals achieves the nominal confidence level, while other methods fail to
meet this guarantee.
- Abstract(参考訳): 微分プライベート(DP)メカニズムは、統計解析手法にランダム性を導入することにより、個人レベルの情報を保護する。
現在,様々な統計問題に対するDPツールが多数存在するが,統計的推測の不確かさの定量化に不可欠であるDP推定器のサンプリング分布を理解するための一般的な手法が不足している。
本研究では,複数のプライベートブートストラップ推定値をリリースするdpブートストラップ手順を分析し,サンプリング分布を推定し,信頼区間を構築する。
我々のプライバシー分析には、任意のDP機構を組み込むために適用される単一のDPブートストラップ推定のプライバシコストに関する新たな結果が含まれており、既存の文献におけるブートストラップの誤用を識別する。
我々は,$B$ DPブートストラップのリリースが,$(\mu/\sqrt{(2-2/\mathrm{e})B})$-Gaussian DPが漸近的に$\mu$-Gaussian DPを満たすメカニズムから推定されることを示す。
また,dpのブートストラップ推定に基づく統計的手法を開発し,確率測度のデコンボリューションに関連する手法を用いてサンプリング分布を正確に推定する。
密度推定から,信頼区間を構築し,2016年カナダ国勢調査公用マイクロデータを用いたシミュレーションと実世界実験により,既存の手法と比較する。
プライベートな信頼区間のカバレッジは名目上の信頼レベルに達しますが、他のメソッドはこの保証を満たしていません。
関連論文リスト
- Scalable DP-SGD: Shuffling vs. Poisson Subsampling [61.19794019914523]
バッチサンプリングをシャッフルしたマルチエポック適応線形クエリ(ABLQ)機構のプライバシ保証に対する新たな下位境界を提供する。
ポアソンのサブサンプリングと比較すると大きな差がみられ, 以前の分析は1つのエポックに限られていた。
本稿では,大規模な並列計算を用いて,Poissonサブサンプリングを大規模に実装する実践的手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T19:06:16Z) - Private Mean Estimation with Person-Level Differential Privacy [6.621676316292624]
複数のサンプルを持つ場合の個人レベルの個人別平均推定について検討した。
我々は、計算効率のよいアルゴリズムを、純粋DPで、計算効率の悪いアルゴリズムを、ほぼ一致する下界は、近似DPの最も寛容な場合を抑える。
論文 参考訳(メタデータ) (2024-05-30T18:20:35Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Resampling methods for private statistical inference [1.8110941972682346]
我々は、信頼区間を異なるプライバシーで構築する作業について検討する。
データのパーティション上で実行される複数の"小さな"ブートストラップの結果の中央値をプライベートに計算する,非パラメトリックブートストラップの2つのプライベート変種を提案する。
固定された差分プライバシーパラメータ$epsilon$に対して、我々のメソッドは、サンプルサイズ$n$の対数係数内の非プライベートブートストラップと同じエラー率を享受します。
論文 参考訳(メタデータ) (2024-02-11T08:59:02Z) - DPpack: An R Package for Differentially Private Statistical Analysis and
Machine Learning [3.5966786737142304]
差分プライバシー(DP)は、統計データを公開したり、統計・機械学習モデルをデータから構築する際に個人のプライバシーを保証する最先端のフレームワークである。
我々は、微分プライベート分析の大規模なツールキットを提供するオープンソースのRパッケージDPpackを開発した。
論文 参考訳(メタデータ) (2023-09-19T23:36:11Z) - Differentially Private Statistical Inference through $\beta$-Divergence
One Posterior Sampling [2.8544822698499255]
本稿では,モデルとデータ生成プロセス間の$beta$-divergenceの最小化を目標とした,一般化後部からの後部サンプリング手法を提案する。
これにより、基礎となるモデルの変更を必要とせずに、一般的に適用可能なプライベートな推定が可能になる。
我々は、$beta$D-Bayesが同一のプライバシー保証に対してより正確な推測を行うことを示す。
論文 参考訳(メタデータ) (2023-07-11T12:00:15Z) - Recycling Scraps: Improving Private Learning by Leveraging Intermediate Checkpoints [20.533039211835902]
本研究では,DP ML 手法の精度を高めるために,中間チェックポイントの集約を用いた一般的なフレームワークを設計する。
我々は,StackOverflow,CIFAR10,CIFAR100データセットの既存の最先端データに対して,集約によるトレーニングによって予測精度が大幅に向上できることを実証した。
本手法は,プロプライエタリなpCVRタスクにおいて,実用性および分散性の観点から0.54%と62.6%の相対的な改善を実現する。
論文 参考訳(メタデータ) (2022-10-04T19:21:00Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Optimal Membership Inference Bounds for Adaptive Composition of Sampled
Gaussian Mechanisms [93.44378960676897]
トレーニングされたモデルとデータサンプルが与えられた場合、メンバシップ推論(MI)アタックは、サンプルがモデルのトレーニングセットにあるかどうかを予測する。
MI攻撃に対する一般的な対策は、モデルトレーニング中に差分プライバシー(DP)を利用して個々の事例の存在を隠蔽することである。
本稿では,MI攻撃を装着した相手のテキスト・アドバンテージのバウンダリを導出し,広く利用されているガウス機構の厳密性を示す。
論文 参考訳(メタデータ) (2022-04-12T22:36:56Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。