論文の概要: Differentially Private Confidence Intervals for Proportions under Stratified Random Sampling
- arxiv url: http://arxiv.org/abs/2301.08324v2
- Date: Thu, 11 Apr 2024 16:37:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 19:46:03.439121
- Title: Differentially Private Confidence Intervals for Proportions under Stratified Random Sampling
- Title(参考訳): 階層化ランダムサンプリングにおける確率の個人的信頼区間
- Authors: Shurong Lin, Mark Bun, Marco Gaboardi, Eric D. Kolaczyk, Adam Smith,
- Abstract要約: データプライバシの意識の高まりに伴い、プライベートバージョンの信頼区間の開発が注目されている。
最近の研究は個人的信頼区間で行われているが、個人的信頼区間では厳密な方法論が研究されていない。
階層化されたランダムサンプリングの下で,信頼区間を構成するための3つの差分プライベートアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 14.066813980992132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Confidence intervals are a fundamental tool for quantifying the uncertainty of parameters of interest. With the increase of data privacy awareness, developing a private version of confidence intervals has gained growing attention from both statisticians and computer scientists. Differential privacy is a state-of-the-art framework for analyzing privacy loss when releasing statistics computed from sensitive data. Recent work has been done around differentially private confidence intervals, yet to the best of our knowledge, rigorous methodologies on differentially private confidence intervals in the context of survey sampling have not been studied. In this paper, we propose three differentially private algorithms for constructing confidence intervals for proportions under stratified random sampling. We articulate two variants of differential privacy that make sense for data from stratified sampling designs, analyzing each of our algorithms within one of these two variants. We establish analytical privacy guarantees and asymptotic properties of the estimators. In addition, we conduct simulation studies to evaluate the proposed private confidence intervals, and two applications to the 1940 Census data are provided.
- Abstract(参考訳): 信頼区間は、関心のパラメータの不確かさを定量化する基本的なツールである。
データプライバシの意識の高まりに伴い、統計学者とコンピュータ科学者の双方から、信頼区間のプライベートバージョンの開発が注目されている。
差分プライバシーは、機密データから計算された統計を公表する際のプライバシー損失を分析する最先端のフレームワークである。
最近の研究は個人的信頼区間で行われているが、我々の知る限り、調査サンプリングの文脈における個人的信頼区間に関する厳密な方法論は研究されていない。
本稿では, 階層化ランダムサンプリングの下で, 信頼区間を構成するための3つの差分プライベートアルゴリズムを提案する。
これら2つの変種のうちの1つで、各アルゴリズムを解析し、階層化されたサンプリング設計からのデータに意味のある2つの差分プライバシーを具体化する。
我々は、推定者の分析的プライバシー保証と漸近特性を確立する。
さらに,提案した私的信頼区間を評価するためのシミュレーション研究を行い,1940年国勢調査データに対する2つの応用について述べる。
関連論文リスト
- Differentially Private Federated Learning: Servers Trustworthiness, Estimation, and Statistical Inference [18.97060758177909]
本稿では,差分プライバシーの制約下での高次元推定と推測の課題について検討する。
線形回帰モデルに適した新しいフェデレーション推定アルゴリズムを提案する。
また,各パラメータの座標的信頼区間を含む統計的推測手法を提案する。
論文 参考訳(メタデータ) (2024-04-25T02:14:07Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Federated Experiment Design under Distributed Differential Privacy [31.06808163362162]
我々は,サービス提供者に対する信頼を最小限にしつつ,ユーザのプライバシの厳格な保護に注力する。
現代のA/Bテストにおいて重要な要素であるが、これまではプライベート分散実験は研究されていない。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
論文 参考訳(メタデータ) (2023-11-07T22:38:56Z) - Differentially Private Distributed Estimation and Learning [2.4401219403555814]
ネットワーク環境における分散推定と学習の問題について検討する。
エージェントは、プライベートに観察されたサンプルからランダム変数の未知の統計特性を推定するために情報を交換する。
エージェントは、自分のプライベートな観察に関する情報を交換することで、未知の量を見積もることができるが、プライバシー上のリスクにも直面する。
論文 参考訳(メタデータ) (2023-06-28T01:41:30Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Private independence testing across two parties [21.236868468146348]
$pi$-testは、複数のパーティに分散したデータ間の統計的独立性をテストするための、プライバシ保護アルゴリズムである。
差分プライベートテストの有用性に基づいて,加法的および乗法的エラー境界を確立する。
論文 参考訳(メタデータ) (2022-07-08T02:13:05Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Non-parametric Differentially Private Confidence Intervals for the
Median [3.205141100055992]
本稿では,中央値に対する有意な個人的信頼区間を計算するためのいくつかの戦略を提案し,評価する。
また、サンプリングからのエラーと出力の保護からのエラーという2つの不確実性源に対処することが、この不確実性を逐次的に組み込んだ単純なアプローチよりも望ましいことを示す。
論文 参考訳(メタデータ) (2021-06-18T19:45:37Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - CoinDICE: Off-Policy Confidence Interval Estimation [107.86876722777535]
強化学習における高信頼行動非依存のオフ政治評価について検討する。
様々なベンチマークにおいて、信頼区間推定が既存の手法よりも厳密で精度が高いことが示されている。
論文 参考訳(メタデータ) (2020-10-22T12:39:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。