論文の概要: Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics
- arxiv url: http://arxiv.org/abs/2004.07223v3
- Date: Tue, 17 Nov 2020 20:20:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 04:15:17.982205
- Title: Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics
- Title(参考訳): 境界化、集中化、および停止 - データ分析のためのプライバシ損失構成の統一
- Authors: Mark Cesar, Ryan Rogers
- Abstract要約: アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
- 参考スコア(独自算出の注目度): 2.614355818010333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy (DP) provides rigorous privacy guarantees on
individual's data while also allowing for accurate statistics to be conducted
on the overall, sensitive dataset. To design a private system, first private
algorithms must be designed that can quantify the privacy loss of each outcome
that is released. However, private algorithms that inject noise into the
computation are not sufficient to ensure individuals' data is protected due to
many noisy results ultimately concentrating to the true, non-privatized result.
Hence there have been several works providing precise formulas for how the
privacy loss accumulates over multiple interactions with private algorithms.
However, these formulas either provide very general bounds on the privacy loss,
at the cost of being overly pessimistic for certain types of private
algorithms, or they can be too narrow in scope to apply to general privacy
systems. In this work, we unify existing privacy loss composition bounds for
special classes of differentially private (DP) algorithms along with general DP
composition bounds. In particular, we provide strong privacy loss bounds when
an analyst may select pure DP, bounded range (e.g. exponential mechanisms), or
concentrated DP mechanisms in any order. We also provide optimal privacy loss
bounds that apply when an analyst can select pure DP and bounded range
mechanisms in a batch, i.e. non-adaptively. Further, when an analyst selects
mechanisms within each class adaptively, we show a difference in privacy loss
between different, predetermined orderings of pure DP and bounded range
mechanisms. Lastly, we compare the composition bounds of Laplace and Gaussian
mechanisms based on histogram datasets.
- Abstract(参考訳): ディファレンシャルプライバシ(dp)は、個人のデータに対する厳密なプライバシー保証を提供すると同時に、全体的な機密性の高いデータセット上で正確な統計処理を可能にする。
プライベートシステムを設計するには、リリースされる各結果のプライバシー損失を定量化できる最初のプライベートアルゴリズムを設計する必要がある。
しかし、計算にノイズを注入するプライベートアルゴリズムは、多くのノイズの結果が最終的に真の非民営化結果に集中するため、個人のデータを保護するには不十分である。
したがって、プライバシ損失がプライベートアルゴリズムとの複数のインタラクションにどのように蓄積されるかの正確な公式を提供するいくつかの研究がある。
しかし、これらの公式は、特定の種類のプライベートアルゴリズムに対して過度に悲観的であるか、一般的なプライバシシステムに適用するにはスコープが狭すぎるために、プライバシー損失に非常に一般的な境界を提供する。
本研究では、差分プライベート(DP)アルゴリズムの特殊クラスに対する既存のプライバシー損失構成境界と一般DP構成境界を統一する。
特に、アナリストが純粋なDP、境界範囲(指数的メカニズムなど)、あるいは集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失境界を提供する。
また、分析者がバッチ内で純粋DPと有界範囲のメカニズム、すなわち非適応的に選択できる場合に適用される最適なプライバシー損失境界を提供する。
さらに、分析者が各クラス内のメカニズムを適応的に選択した場合、純粋DPと有界範囲機構の異なる所定の順序のプライバシー損失の違いを示す。
最後に,ラプラス機構とガウス機構の組成境界をヒストグラムデータセットに基づいて比較する。
関連論文リスト
- Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Individual Privacy Accounting with Gaussian Differential Privacy [8.81666701090743]
個別のプライバシ会計は、分析に関わる各関係者に対して、差分プライバシー(DP)の損失を個別に制限することを可能にする。
個人のプライバシー損失を原則的に説明するためには、ランダム化機構の適応的な構成のためのプライバシー会計士が必要である。
論文 参考訳(メタデータ) (2022-09-30T17:19:40Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Private measures, random walks, and synthetic data [7.5764890276775665]
微分プライバシーは、情報理論のセキュリティ保証を提供する数学的概念である。
我々は、プライベートな合成データを効率的に構築できるデータセットからプライベートな尺度を開発する。
我々の構築における重要な要素は、独立確率変数と同様の連立分布を持つ新しい超規則ランダムウォークである。
論文 参考訳(メタデータ) (2022-04-20T00:06:52Z) - Fully Adaptive Composition in Differential Privacy [53.01656650117495]
よく知られた高度な合成定理は、基本的なプライバシー構成が許すよりも、プライベートデータベースを2倍にクエリすることができる。
アルゴリズムとプライバシパラメータの両方を適応的に選択できる完全適応型合成を導入する。
適応的に選択されたプライバシパラメータが許されているにもかかわらず、定数を含む高度なコンポジションのレートに適合するフィルタを構築します。
論文 参考訳(メタデータ) (2022-03-10T17:03:12Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。