論文の概要: Fully Adaptive Composition in Differential Privacy
- arxiv url: http://arxiv.org/abs/2203.05481v3
- Date: Tue, 24 Oct 2023 14:37:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 04:02:28.454563
- Title: Fully Adaptive Composition in Differential Privacy
- Title(参考訳): 微分プライバシーにおける完全適応構成
- Authors: Justin Whitehouse and Aaditya Ramdas and Ryan Rogers and Zhiwei Steven
Wu
- Abstract要約: よく知られた高度な合成定理は、基本的なプライバシー構成が許すよりも、プライベートデータベースを2倍にクエリすることができる。
アルゴリズムとプライバシパラメータの両方を適応的に選択できる完全適応型合成を導入する。
適応的に選択されたプライバシパラメータが許されているにもかかわらず、定数を含む高度なコンポジションのレートに適合するフィルタを構築します。
- 参考スコア(独自算出の注目度): 53.01656650117495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Composition is a key feature of differential privacy. Well-known advanced
composition theorems allow one to query a private database quadratically more
times than basic privacy composition would permit. However, these results
require that the privacy parameters of all algorithms be fixed before
interacting with the data. To address this, Rogers et al. introduced fully
adaptive composition, wherein both algorithms and their privacy parameters can
be selected adaptively. They defined two probabilistic objects to measure
privacy in adaptive composition: privacy filters, which provide differential
privacy guarantees for composed interactions, and privacy odometers,
time-uniform bounds on privacy loss. There are substantial gaps between
advanced composition and existing filters and odometers. First, existing
filters place stronger assumptions on the algorithms being composed. Second,
these odometers and filters suffer from large constants, making them
impractical. We construct filters that match the rates of advanced composition,
including constants, despite allowing for adaptively chosen privacy parameters.
En route we also derive a privacy filter for approximate zCDP. We also
construct several general families of odometers. These odometers match the
tightness of advanced composition at an arbitrary, preselected point in time,
or at all points in time simultaneously, up to a doubly-logarithmic factor. We
obtain our results by leveraging advances in martingale concentration. In sum,
we show that fully adaptive privacy is obtainable at almost no loss.
- Abstract(参考訳): 構成は差分プライバシーの重要な特徴である。
よく知られている高度な合成定理は、プライバシの基本的な構成が許すよりも2倍の頻度でプライベートデータベースをクエリできる。
しかし、これらの結果は、すべてのアルゴリズムのプライバシパラメータをデータとやりとりする前に修正する必要がある。
これを解決するためにRogersらは、アルゴリズムとプライバシパラメータの両方を適応的に選択できる完全適応型合成を導入した。
彼らは、適応的な構成でプライバシを測定するための2つの確率的オブジェクトを定義した。すなわち、構成されたインタラクションに対して差分プライバシー保証を提供するプライバシフィルタと、プライバシ損失に関する時間的一様境界であるプライバシオドメータである。
高度な合成と既存のフィルターとオドメーターの間には大きなギャップがある。
まず、既存のフィルタは、構成されるアルゴリズムに強い仮定を与える。
第二に、これらのオドメータとフィルターは大きな定数に苦しめられ、実用的でない。
我々は,プライバシパラメータを適応的に選択したにもかかわらず,定数を含む高度な構成率に適合するフィルタを構築した。
途中で、おおよそのzcdpに対するプライバシーフィルターも導出します。
また、オドメーターの一般的なファミリーもいくつか構築する。
これらのオドメーターは、任意の、事前選択された時点、または同時に同時に2つの対数係数まで高度な合成の厳密さと一致する。
マルティンゲール濃度の進歩を利用して結果を得る。
要約すると、完全に適応的なプライバシは、ほとんど損失なく取得可能である。
関連論文リスト
- Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Mean Estimation Under Heterogeneous Privacy Demands [5.755004576310333]
本研究は,各ユーザが自身のプライバシレベルを設定できる平均推定の問題について考察する。
提案するアルゴリズムは,ミニマックス最適であり,ほぼ直線的な実行時間を有することを示す。
プライバシー要件が低いが異なるユーザは、すべて同じ金額で、必要以上のプライバシーを与えられる。
論文 参考訳(メタデータ) (2023-10-19T20:29:19Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Mean Estimation Under Heterogeneous Privacy: Some Privacy Can Be Free [13.198689566654103]
本研究は,異種差分プライバシー制約に基づく平均推定の問題について考察する。
提案するアルゴリズムは,プライバシレベルが異なる2つのユーザグループが存在する場合に,ミニマックス最適であることが示されている。
論文 参考訳(メタデータ) (2023-04-27T05:23:06Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Practical Privacy Filters and Odometers with R\'enyi Differential
Privacy and Applications to Differentially Private Deep Learning [0.0]
我々はR'enyi Differential Privacyのレンズを通して、適応的なプライバシー予算の下でDP組成を研究します。
より単純な合成定理をより小さい定数で証明し、アルゴリズム設計に十分な実用性を与える。
論文 参考訳(メタデータ) (2021-03-02T00:37:11Z) - Individual Privacy Accounting via a Renyi Filter [33.65665839496798]
個人ごとのパーソナライズされたプライバシ損失推定値に基づいて、より厳格なプライバシ損失会計を行う方法を提案する。
我々のフィルターは、Rogersらによる$(epsilon,delta)$-differential privacyの既知のフィルタよりもシンプルできつい。
論文 参考訳(メタデータ) (2020-08-25T17:49:48Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。