論文の概要: Non-parametric Differentially Private Confidence Intervals for the
Median
- arxiv url: http://arxiv.org/abs/2106.10333v1
- Date: Fri, 18 Jun 2021 19:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:43:48.658647
- Title: Non-parametric Differentially Private Confidence Intervals for the
Median
- Title(参考訳): 中央値に対する非パラメトリック微分プライベート信頼区間
- Authors: Joerg Drechsler, Ira Globus-Harris, Audra McMillan, Jayshree Sarathy,
and Adam Smith
- Abstract要約: 本稿では,中央値に対する有意な個人的信頼区間を計算するためのいくつかの戦略を提案し,評価する。
また、サンプリングからのエラーと出力の保護からのエラーという2つの不確実性源に対処することが、この不確実性を逐次的に組み込んだ単純なアプローチよりも望ましいことを示す。
- 参考スコア(独自算出の注目度): 3.205141100055992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy is a restriction on data processing algorithms that
provides strong confidentiality guarantees for individual records in the data.
However, research on proper statistical inference, that is, research on
properly quantifying the uncertainty of the (noisy) sample estimate regarding
the true value in the population, is currently still limited. This paper
proposes and evaluates several strategies to compute valid differentially
private confidence intervals for the median. Instead of computing a
differentially private point estimate and deriving its uncertainty, we directly
estimate the interval bounds and discuss why this approach is superior if
ensuring privacy is important. We also illustrate that addressing both sources
of uncertainty--the error from sampling and the error from protecting the
output--simultaneously should be preferred over simpler approaches that
incorporate the uncertainty in a sequential fashion. We evaluate the
performance of the different algorithms under various parameter settings in
extensive simulation studies and demonstrate how the findings could be applied
in practical settings using data from the 1940 Decennial Census.
- Abstract(参考訳): 差分プライバシーは、データ内の個々のレコードに対して強い機密性を保証するデータ処理アルゴリズムの制限である。
しかし、適切な統計的推測、すなわち、人口の真の価値に関する(ノイズの多い)サンプル推定の不確かさを適切に定量化する研究は、現在も限られている。
本稿では,中央値に対する有意な個人的信頼区間を計算するためのいくつかの戦略を提案し,評価する。
差分的にプライベートポイントの推定を計算し、その不確実性を導出する代わりに、インターバルバウンダリを直接推定し、プライバシが重要である場合、このアプローチが優れている理由について議論する。
また,不確実性の発生源であるサンプリングからの誤りと出力を保護するエラーの両方に対処することは,不確実性を逐次的に組み込む単純なアプローチよりも望ましいことを示す。
様々なパラメータ設定下での異なるアルゴリズムの性能を広範囲なシミュレーション研究で評価し,1940年国勢調査のデータを用いて,その結果が実用環境でどのように適用できるかを実証した。
関連論文リスト
- Differentially Private Covariate Balancing Causal Inference [8.133739801185271]
差分プライバシーは、プライバシー保護のための主要な数学的枠組みである。
我々のアルゴリズムは、所定のプライバシー予算の下で、整合性やレート最適性などの統計的保証のある点推定と区間推定の両方を生成する。
論文 参考訳(メタデータ) (2024-10-18T18:02:13Z) - Stratified Prediction-Powered Inference for Hybrid Language Model Evaluation [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
我々はStratPPI(Stratified Prediction-Powered Inference)という手法を提案する。
単純なデータ階層化戦略を用いることで,基礎的なPPI推定精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-06-06T17:37:39Z) - Differentially Private Federated Learning: Servers Trustworthiness, Estimation, and Statistical Inference [18.97060758177909]
本稿では,差分プライバシーの制約下での高次元推定と推測の課題について検討する。
線形回帰モデルに適した新しいフェデレーション推定アルゴリズムを提案する。
また,各パラメータの座標的信頼区間を含む統計的推測手法を提案する。
論文 参考訳(メタデータ) (2024-04-25T02:14:07Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Simulation-based, Finite-sample Inference for Privatized Data [14.218697973204065]
本稿では,統計的に有効な信頼区間と仮説テストを生成するためのシミュレーションベースの"repro sample"手法を提案する。
本手法は様々な個人推論問題に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-03-09T15:19:31Z) - Differentially Private Confidence Intervals for Proportions under Stratified Random Sampling [14.066813980992132]
データプライバシの意識の高まりに伴い、プライベートバージョンの信頼区間の開発が注目されている。
最近の研究は個人的信頼区間で行われているが、個人的信頼区間では厳密な方法論が研究されていない。
階層化されたランダムサンプリングの下で,信頼区間を構成するための3つの差分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-19T21:25:41Z) - A Unified Approach to Differentially Private Bayes Point Estimation [7.599399338954307]
推定値にランダム化を導入して機密性を強制する,差分プライバシー(DP)が提案されている。
微分プライベート推定の標準的なアルゴリズムは、従来の点推定法の出力に適切な量の雑音を加えることに基づいている。
DP制約下でのデータ生成機構の未知パラメータのベイズ点推定に対する統一ベイズプライベートポイント(UBaPP)アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-18T16:42:49Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Quantifying Uncertainty in Deep Spatiotemporal Forecasting [67.77102283276409]
本稿では,正規格子法とグラフ法という2種類の予測問題について述べる。
我々はベイジアンおよび頻繁な視点からUQ法を解析し、統計的決定理論を通じて統一的な枠組みを提示する。
実際の道路ネットワークのトラフィック、疫病、空気質予測タスクに関する広範な実験を通じて、異なるUQ手法の統計計算トレードオフを明らかにする。
論文 参考訳(メタデータ) (2021-05-25T14:35:46Z) - CoinDICE: Off-Policy Confidence Interval Estimation [107.86876722777535]
強化学習における高信頼行動非依存のオフ政治評価について検討する。
様々なベンチマークにおいて、信頼区間推定が既存の手法よりも厳密で精度が高いことが示されている。
論文 参考訳(メタデータ) (2020-10-22T12:39:11Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。