論文の概要: A Refreshment Stirred, Not Shaken (II): Invariant-Preserving Deployments of Differential Privacy for the US Decennial Census
- arxiv url: http://arxiv.org/abs/2501.08449v1
- Date: Tue, 14 Jan 2025 21:38:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:53:14.909853
- Title: A Refreshment Stirred, Not Shaken (II): Invariant-Preserving Deployments of Differential Privacy for the US Decennial Census
- Title(参考訳): Refreshment Stirred, not Shaken (II):Invariant-Preserving Deployments of Differential Privacy for the US Decennial Census
- Authors: James Bailie, Ruobin Gong, Xiao-Li Meng,
- Abstract要約: 我々は,アメリカ十年国勢調査における統計的制御法(SDC)を開発した。
PSAアルゴリズムは差分プライバシー(DP)と整合可能な不変$varepsilon$sを誘導することを示した。
私たちの結果は、PSAが提供するSDCの保証を詳細に説明しますが、DASと2020年DASは、一般的に、実際のプライバシ保護に対してx2013$とされなければなりません。
- 参考スコア(独自算出の注目度): 4.540236408836132
- License:
- Abstract: Through the lens of the system of differential privacy specifications developed in Part I of a trio of articles, this second paper examines two statistical disclosure control (SDC) methods for the United States Decennial Census: the Permutation Swapping Algorithm (PSA), which is similar to the 2010 Census's disclosure avoidance system (DAS), and the TopDown Algorithm (TDA), which was used in the 2020 DAS. To varying degrees, both methods leave unaltered some statistics of the confidential data $\unicode{x2013}$ which are called the method's invariants $\unicode{x2013}$ and hence neither can be readily reconciled with differential privacy (DP), at least as it was originally conceived. Nevertheless, we establish that the PSA satisfies $\varepsilon$-DP subject to the invariants it necessarily induces, thereby showing that this traditional SDC method can in fact still be understood within our more-general system of DP specifications. By a similar modification to $\rho$-zero concentrated DP, we also provide a DP specification for the TDA. Finally, as a point of comparison, we consider the counterfactual scenario in which the PSA was adopted for the 2020 Census, resulting in a reduction in the nominal privacy loss, but at the cost of releasing many more invariants. Therefore, while our results explicate the mathematical guarantees of SDC provided by the PSA, the TDA and the 2020 DAS in general, care must be taken in their translation to actual privacy protection $\unicode{x2013}$ just as is the case for any DP deployment.
- Abstract(参考訳): 第1部で開発された差分プライバシー仕様システムのレンズを通して、第2報では、2020年のDASで使用されていた2010年国勢調査の開示回避システム(DAS)とTopDown Algorithm(TDA)に類似した、米国十年国勢調査における2つの統計開示制御(SDC)手法について検討する。
異なる程度に、両方のメソッドは秘密データ $\unicode{x2013}$ の統計を変更せずに残しており、これはメソッドの不変値 $\unicode{x2013}$ と呼ばれ、したがって、少なくとも当初は考えられていたように、差分プライバシー (DP) と容易に一致できない。
それにもかかわらず、PSAは必然的に誘導される不変量に対して$\varepsilon$-DPを満たすことを証明し、この従来のSDC法は、実際にはDP仕様のより一般的なシステム内でも理解可能であることを示す。
同様に$\rho$-zero 集中 DP の修正により、TDA の DP 仕様も提供する。
最後に、比較の点として、2020年国勢調査でPSAが採用された対実シナリオを検討し、名目上のプライバシー損失が減少するが、多くの不変物を放出するコストがかかる。
したがって、当社の結果は、PSA、TDA、2020年DAのSDCの数学的保証を概ね説明しているが、実際のプライバシー保護への翻訳には注意が必要である。
関連論文リスト
- General-Purpose $f$-DP Estimation and Auditing in a Black-Box Setting [7.052531099272798]
統計的に$f$-Differential Privacy(f$-DP)を評価する新しい手法を提案する。
異なるプライベートメカニズムをデプロイする際の課題は、DPが検証しにくいことである。
我々は,このプライバシー概念に対する既存のアプローチとは異なり,研究対象アルゴリズムの事前知識を必要としない,$f$-DPのための新しいブラックボックス手法を導入する。
論文 参考訳(メタデータ) (2025-02-10T21:58:17Z) - Comparing privacy notions for protection against reconstruction attacks in machine learning [10.466570297146953]
機械学習コミュニティでは、再構築攻撃が主要な関心事であり、統合学習(FL)においても特定されている。
これらの脅威に対して、プライバシーコミュニティは、DP-SGDと呼ばれる勾配降下アルゴリズムにおける差分プライバシー(DP)の使用を推奨している。
本稿では,プライバシ保証の異なる概念とメカニズムを比較するための基礎的枠組みを構築した。
論文 参考訳(メタデータ) (2025-02-06T13:04:25Z) - Formal Privacy Guarantees with Invariant Statistics [8.133739801185271]
2020年の米国国勢調査製品に触発されたこの論文は、DP出力と非民間統計の共同リリースに対応するために、差分プライバシー(DP)を拡張した。
私たちのフレームワークであるSemi-DPは、与えられた不変量に対応するデータセットに焦点を当てることで、隣接性を再定義します。
我々は、Semi-DPフレームワークを使用して、2020年12月の米国国勢調査のプライバシー分析を行い、効果的なプライバシー保証が広告よりも弱いことを明らかにした。
論文 参考訳(メタデータ) (2024-10-22T22:50:17Z) - Differentially Private Best-Arm Identification [14.916947598339988]
ベストアーム識別(BAI)問題は、データセンシティブなアプリケーションに徐々に使われている。
これらのアプリケーションによって引き起こされるデータプライバシの懸念に触発され、ローカルモデルと中央モデルの両方に一定の信頼を保ちながら、BAIの問題を研究する。
論文 参考訳(メタデータ) (2024-06-10T16:02:48Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Nonparametric extensions of randomized response for private confidence sets [51.75485869914048]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。