論文の概要: Debiasing Functions of Private Statistics in Postprocessing
- arxiv url: http://arxiv.org/abs/2502.13314v1
- Date: Tue, 18 Feb 2025 22:16:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:57:50.750508
- Title: Debiasing Functions of Private Statistics in Postprocessing
- Title(参考訳): ポストプロセッシングにおける個人統計量のデバイアス機能
- Authors: Flavio Calmon, Elbert Du, Cynthia Dwork, Brian Finley, Grigory Franguridi,
- Abstract要約: データセットの$n$が公開されていない場合、プライベートな手段としてバイアスのない推定器を導出します。
また、推定器を用いて、記録毎の差分プライバシーに対するバイアスのない変換機構を開発する。
- 参考スコア(独自算出の注目度): 6.22153888560487
- License:
- Abstract: Given a differentially private unbiased estimate $\tilde{q}=q(D) +\nu$ of a statistic $q(D)$, we wish to obtain unbiased estimates of functions of $q(D)$, such as $1/q(D)$, solely through post-processing of $\tilde{q}$, with no further access to the confidential dataset $D$. To this end, we adapt the deconvolution method used for unbiased estimation in the statistical literature, deriving unbiased estimators for a broad family of twice-differentiable functions when the privacy-preserving noise $\nu$ is drawn from the Laplace distribution (Dwork et al., 2006). We further extend this technique to a more general class of functions, deriving approximately optimal estimators that are unbiased for values in a user-specified interval (possibly extending to $\pm \infty$). We use these results to derive an unbiased estimator for private means when the size $n$ of the dataset is not publicly known. In a numerical application, we find that a mechanism that uses our estimator to return an unbiased sample size and mean outperforms a mechanism that instead uses the previously known unbiased privacy mechanism for such means (Kamath et al., 2023). We also apply our estimators to develop unbiased transformation mechanisms for per-record differential privacy, a privacy concept in which the privacy guarantee is a public function of a record's value (Seeman et al., 2024). Our mechanisms provide stronger privacy guarantees than those in prior work (Finley et al., 2024) by using Laplace, rather than Gaussian, noise. Finally, using a different approach, we go beyond Laplace noise by deriving unbiased estimators for polynomials under the weak condition that the noise distribution has sufficiently many moments.
- Abstract(参考訳): 統計学的な$q(D)$の微分的にプライベートな未バイアスの推定値 $\tilde{q}=q(D) +\nu$ が与えられると、$/q(D)$のような関数の非バイアス推定値が$q(D)$となる。
そこで本論文では,プライバシ保存ノイズ$\nu$がLaplace分布から引き出された場合に,広義の2次微分可能関数群に対する非バイアス推定を導出し,統計的文献における非バイアス推定に用いるデコンボリューション手法を適用した(Dwork et al , 2006)。
さらに、この手法をより一般的な関数のクラスに拡張し、ユーザ指定区間(おそらく$\pm \infty$)の値に対してバイアスのない、ほぼ最適な推定子を導出する。
これらの結果を用いて、データセットの$n$が公開されていない場合、プライベートな手段としてバイアスのない推定器を導出する。
数値アプリケーションでは、推定器を用いて未バイアスのサンプルサイズを返却し、その代わりに既知の未バイアスのプライバシメカニズムを使用するメカニズム(Kamath et al , 2023)を上回ります。
プライバシ保証をレコードの価値の公開関数とするプライバシー概念(Seeman et al , 2024)である。
我々のメカニズムは、ガウス的なノイズではなく、Laplaceを使用することによって、以前の作業(Finley et al , 2024)よりも強力なプライバシー保証を提供する。
最後に、異なるアプローチを用いて、雑音分布が十分多くのモーメントを持つという弱い条件下で多項式の非バイアス推定子を導出することで、ラプラスノイズを超える。
関連論文リスト
- Optimized Tradeoffs for Private Prediction with Majority Ensembling [59.99331405291337]
本稿では,データ依存型ランダム化応答行列(DaRRM)アルゴリズムを提案する。
DaRRMはデータ依存ノイズ関数$gamma$でパラメータ化され、全てのプライベートアルゴリズムのクラスに対して効率的なユーティリティ最適化を可能にする。
本稿では,DARRMが共通ベースラインよりも2倍のプライバシゲインを,固定ユーティリティで確実に享受していることを示す。
論文 参考訳(メタデータ) (2024-11-27T00:48:48Z) - Differential Privacy with Multiple Selections [52.5653572324012]
感性のある機能を持つユーザがサーバから異なるプライベートな方法でレコメンデーションを得るような設定について検討する。
本稿では,サーバが複数のレコメンデーションを送信可能なマルチセレクションアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-07-19T19:34:51Z) - On Differentially Private U Statistics [25.683071759227293]
局所的なH'ajekプロジェクションを用いて、データの異なる部分集合を再重み付けする新しいしきい値に基づくアプローチを提案する。
これは、非退化U統計に対してほぼ最適なプライベート誤差をもたらし、退化U統計に対してほぼ最適であることを示す強い指標となる。
論文 参考訳(メタデータ) (2024-07-06T03:27:14Z) - Insufficient Statistics Perturbation: Stable Estimators for Private Least Squares [38.478776450327125]
通常の最小二乗に対するサンプルと時間効率の微分プライベートアルゴリズムを提案する。
私たちのほぼ最適精度は、条件番号または指数時間を持つデータセットに対して保持します。
論文 参考訳(メタデータ) (2024-04-23T18:00:38Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - Nonparametric extensions of randomized response for private confidence sets [51.75485869914048]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - Tight and Robust Private Mean Estimation with Few Users [16.22135057266913]
ユーザレベルの差分プライバシーに基づく高次元平均推定について検討する。
可能な限り少数のユーザを使って、$(eps,delta)$-differentially privateメカニズムを設計します。
論文 参考訳(メタデータ) (2021-10-22T16:02:21Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Strongly universally consistent nonparametric regression and
classification with privatised data [2.879036956042183]
非パラメトリック回帰の古典的問題を再考するが、局所的な差分プライバシー制約を課す。
我々は回帰関数の新しい推定器を設計し、よく研究された分割回帰推定器の民営版とみなすことができる。
論文 参考訳(メタデータ) (2020-10-31T09:00:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。