論文の概要: Composition in Differential Privacy for General Granularity Notions (Long Version)
- arxiv url: http://arxiv.org/abs/2308.14649v1
- Date: Mon, 28 Aug 2023 15:21:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 07:22:30.505419
- Title: Composition in Differential Privacy for General Granularity Notions (Long Version)
- Title(参考訳): 一般粒度表記法(Long Version)における差分プライバシーの構成
- Authors: Patricia Guerra-Balboa, Àlex Miranda-Pascual, Javier Parra-Arnau, Thorsten Strufe,
- Abstract要約: 一般のフレームワークにおける差分プライバシ(DP)の構成可能性や,データドメインや近傍の定義について検討する。
我々の定理は、並列およびシーケンシャルな構成設定の両方をカバーする。重要な点として、それらの間にあるすべての設定をカバーし、構成の最終的なプライバシ損失を、精度を大幅に向上して計算することができる。
- 参考スコア(独自算出の注目度): 2.933288589449038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The composition theorems of differential privacy (DP) allow data curators to combine different algorithms to obtain a new algorithm that continues to satisfy DP. However, new granularity notions (i.e., neighborhood definitions), data domains, and composition settings have appeared in the literature that the classical composition theorems do not cover. For instance, the parallel composition theorem does not apply to general granularity notions. This complicates the opportunity of composing DP mechanisms in new settings and obtaining accurate estimates of the incurred privacy loss after composition. To overcome these limitations, we study the composability of DP in a general framework and for any kind of data domain or neighborhood definition. We give a general composition theorem in both independent and adaptive versions and we provide analogous composition results for approximate, zero-concentrated, and Gaussian DP. Besides, we study the hypothesis needed to obtain the best composition bounds. Our theorems cover both parallel and sequential composition settings. Importantly, they also cover every setting in between, allowing us to compute the final privacy loss of a composition with greatly improved accuracy.
- Abstract(参考訳): 差分プライバシー(DP)の合成定理により、データキュレーターは異なるアルゴリズムを組み合わせてDPを満たす新しいアルゴリズムを得ることができる。
しかし、古典的な合成定理がカバーしていないという文献には、新しい粒度の概念(すなわち、近傍の定義)、データ領域、構成設定が出現している。
例えば、平行合成定理は一般の粒度の概念には適用されない。
これにより、新しい設定でDP機構を構成する機会が複雑になり、構成後のプライバシー損失の正確な推定値が得られる。
これらの制約を克服するため、一般のフレームワークにおけるDPの構成可能性や、データドメインや近傍の定義について検討する。
独立版と適応版の両方で一般的な合成定理を与え、近似的、ゼロ集中型、ガウスDPに対して類似した合成結果を与える。
さらに,最適な構成境界を得るために必要な仮説について検討する。
私たちの定理は、並列およびシーケンシャルな構成設定の両方をカバーする。
重要なことに、これらはすべての設定をカバーしています。これにより、コンポジションの最終的なプライバシ損失を、精度を大幅に向上して計算することができます。
関連論文リスト
- Differential Privacy on Trust Graphs [54.55190841518906]
差分プライバシー(DP)は、各当事者がそのデータで他の当事者の(既知の)サブセットのみを信頼するマルチパーティ環境で研究する。
我々は、DPのローカルモデルよりもはるかに優れたプライバシーとユーティリティのトレードオフを持つ集約のためのDPアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-10-15T20:31:04Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Two Views of Constrained Differential Privacy: Belief Revision and
Update [2.486115115477032]
制約付き微分プライベート(DP)機構を2つの視点で検討する。
制約DPは、l2距離の最小化後処理または投影に基づいて定義される。
本論文で確立した枠組みでは,制約付きDPアルゴリズムを信念修正あるいは信念更新と分類することができる。
論文 参考訳(メタデータ) (2023-03-01T04:37:14Z) - Differentially-Private Bayes Consistency [70.92545332158217]
差分プライバシー(DP)を満たすベイズ一貫した学習ルールを構築する。
ほぼ最適なサンプル複雑性を持つ半教師付き環境で,任意のVCクラスをプライベートに学習できることを実証する。
論文 参考訳(メタデータ) (2022-12-08T11:57:30Z) - Fully Adaptive Composition in Differential Privacy [53.01656650117495]
よく知られた高度な合成定理は、基本的なプライバシー構成が許すよりも、プライベートデータベースを2倍にクエリすることができる。
アルゴリズムとプライバシパラメータの両方を適応的に選択できる完全適応型合成を導入する。
適応的に選択されたプライバシパラメータが許されているにもかかわらず、定数を含む高度なコンポジションのレートに適合するフィルタを構築します。
論文 参考訳(メタデータ) (2022-03-10T17:03:12Z) - Differentially Private Learning Needs Hidden State (Or Much Faster
Convergence) [9.429448411561541]
差分的にプライベートな学習は、厳密な拘束力を持って、隠れた状態のプライバシ分析や、高速な収束を必要とすることを示す。
私たちの収束するプライバシー分析は、差異のあるプライベートな学習が、厳密な拘束力を持って、隠れた状態のプライバシ分析や、高速な収束を必要とすることを示している。
論文 参考訳(メタデータ) (2022-03-10T13:31:08Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Bayesian decision-making under misspecified priors with applications to
meta-learning [64.38020203019013]
トンプソンサンプリングやその他のシーケンシャルな意思決定アルゴリズムは、文脈的包帯における探索と探索のトレードオフに取り組むための一般的なアプローチである。
性能は不特定な事前条件で優雅に低下することを示す。
論文 参考訳(メタデータ) (2021-07-03T23:17:26Z) - Practical Privacy Filters and Odometers with R\'enyi Differential
Privacy and Applications to Differentially Private Deep Learning [0.0]
我々はR'enyi Differential Privacyのレンズを通して、適応的なプライバシー予算の下でDP組成を研究します。
より単純な合成定理をより小さい定数で証明し、アルゴリズム設計に十分な実用性を与える。
論文 参考訳(メタデータ) (2021-03-02T00:37:11Z) - Sharp Composition Bounds for Gaussian Differential Privacy via Edgeworth
Expansion [30.680528052804664]
我々は、最近提案されたf差分プライバシーの枠組みにおいて、Edgeworth拡張を使用して構成された分析的および鋭いプライバシー境界のファミリーを紹介する。
これらの新たなバウンダリの優位性は、エラー解析と、プライベートディープニューラルネットワークのトレーニングに使用されるノイズ降下の全体的なプライバシー保証を定量化するアプリケーションによって確認される。
論文 参考訳(メタデータ) (2020-03-10T01:54:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。