論文の概要: Differentially Private Finite Population Estimation via Survey Weight Regularization
- arxiv url: http://arxiv.org/abs/2411.04236v1
- Date: Wed, 06 Nov 2024 20:04:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:35:20.974972
- Title: Differentially Private Finite Population Estimation via Survey Weight Regularization
- Title(参考訳): サーベイウェイト正規化による個人個体数推定
- Authors: Jeremy Seeman, Yajuan Si, Jerome P Reiter,
- Abstract要約: 有限個体数推定のための微分プライベートな手法を開発した。
本研究では,DP 調査対象の平均所得推定値の公表に最適な手法は,経年変化よりもノイズの少ない命令を必要とすることを示す。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License:
- Abstract: In general, it is challenging to release differentially private versions of survey-weighted statistics with low error for acceptable privacy loss. This is because weighted statistics from complex sample survey data can be more sensitive to individual survey response and weight values than unweighted statistics, resulting in differentially private mechanisms that can add substantial noise to the unbiased estimate of the finite population quantity. On the other hand, simply disregarding the survey weights adds noise to a biased estimator, which also can result in an inaccurate estimate. Thus, the problem of releasing an accurate survey-weighted estimate essentially involves a trade-off among bias, precision, and privacy. We leverage this trade-off to develop a differentially private method for estimating finite population quantities. The key step is to privately estimate a hyperparameter that determines how much to regularize or shrink survey weights as a function of privacy loss. We illustrate the differentially private finite population estimation using the Panel Study of Income Dynamics. We show that optimal strategies for releasing DP survey-weighted mean income estimates require orders-of-magnitude less noise than naively using the original survey weights without modification.
- Abstract(参考訳): 一般に、プライバシーの損失を許容するために、低いエラーで、調査重み付き統計の個人版をリリースすることは困難である。
これは、複雑なサンプル調査データからの重み付き統計が、未重み付き統計よりも個々の調査応答や重み値に敏感になり、その結果、有限個体数の偏りのない推定値に実質的なノイズを与える、微分プライベートなメカニズムが生じるためである。
一方、測量重量を単純に無視するだけでバイアス推定器にノイズが加わり、不正確な推定がもたらされる。
したがって、正確な調査重み付けの見積もりを公表する問題は、基本的にバイアス、精度、プライバシの間のトレードオフを伴う。
このトレードオフを利用して、有限個体数推定のための微分プライベートな手法を開発した。
重要なステップは、プライバシー損失の関数として調査重量を正規化または縮小する方法を決定するハイパーパラメータをプライベートに見積もることである。
パネル・スタディ・オブ・インカム・ダイナミクス (Panel Study of Income Dynamics) を用いた個人的有限集団推定について述べる。
本研究では,DP 調査重み付き平均所得推定を公表するための最適戦略として,従来の調査重み付けを変更せずに生意気に活用するよりも,マグニチュード・オブ・マグニチュードの低ノイズ化が要求されることを示す。
関連論文リスト
- A Simple and Practical Method for Reducing the Disparate Impact of
Differential Privacy [21.098175634158043]
差分的プライベート(DP)メカニズムは、様々なインパクトの高い社会環境に展開されている。
DPの実用性への影響はサブ集団によって大きく異なる。
この格差を減らすための簡単な方法は、成層化である。
論文 参考訳(メタデータ) (2023-12-18T21:19:35Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Differentially Private Statistical Inference through $\beta$-Divergence
One Posterior Sampling [2.8544822698499255]
本稿では,モデルとデータ生成プロセス間の$beta$-divergenceの最小化を目標とした,一般化後部からの後部サンプリング手法を提案する。
これにより、基礎となるモデルの変更を必要とせずに、一般的に適用可能なプライベートな推定が可能になる。
我々は、$beta$D-Bayesが同一のプライバシー保証に対してより正確な推測を行うことを示す。
論文 参考訳(メタデータ) (2023-07-11T12:00:15Z) - Differentially Private Online Bayesian Estimation With Adaptive
Truncation [1.14219428942199]
そこで本研究では,集団に関する静的パラメータの偏微分プライベートなベイズオンライン推定のための,新しいオンライン・適応的トランケーション手法を提案する。
予測クエリを小さな感度で設計することを目的としており、それによってプライバシー保護ノイズが小さくなり、同じレベルのプライバシーを維持しながらより正確な推定が可能となる。
論文 参考訳(メタデータ) (2023-01-19T17:53:53Z) - Robust Bayesian Subspace Identification for Small Data Sets [91.3755431537592]
分散効果を低減するため,正規化推定器,縮小推定器,ベイズ推定器を提案する。
実験の結果,提案した推定器は従来の部分空間法よりも40%のコストで推定リスクを低減できることがわかった。
論文 参考訳(メタデータ) (2022-12-29T00:29:04Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Universal Off-Policy Evaluation [64.02853483874334]
ユニバーサルオフ政治推定器(UnO)への第一歩を踏み出す
我々は, 平均, 分散, 分位数/中間数, 分位数範囲, cvar, および累積分布全体の推定と同時結合に uno を用いる。
論文 参考訳(メタデータ) (2021-04-26T18:54:31Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Magnify Your Population: Statistical Downscaling to Augment the Spatial
Resolution of Socioeconomic Census Data [48.7576911714538]
重要社会経済的属性の詳細な推定を導出する新しい統計的ダウンスケーリング手法を提案する。
選択された社会経済変数ごとに、ランダムフォレストモデルが元の国勢調査単位に基づいて訓練され、その後、微細なグリッド化された予測を生成するために使用される。
本研究では,この手法を米国の国勢調査データに適用し,ブロック群レベルで選択された社会経済変数を,300の空間分解能のグリッドにダウンスケールする。
論文 参考訳(メタデータ) (2020-06-23T16:52:18Z) - Propose, Test, Release: Differentially private estimation with high
probability [9.25177374431812]
我々はPTR機構の新たな一般バージョンを導入し、微分プライベートな推定器に対して高い確率誤差境界を導出する。
我々のアルゴリズムは、データ上の有界性仮定なしで中央値と平均値の差分プライベートな推定を行うための最初の統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-19T01:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。