論文の概要: Fully Adaptive Composition in Differential Privacy
- arxiv url: http://arxiv.org/abs/2203.05481v1
- Date: Thu, 10 Mar 2022 17:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 14:41:36.691842
- Title: Fully Adaptive Composition in Differential Privacy
- Title(参考訳): 微分プライバシーにおける完全適応構成
- Authors: Justin Whitehouse and Aaditya Ramdas and Ryan Rogers and Zhiwei Steven
Wu
- Abstract要約: プライバシフィルタとプライバシオドメーターという,適応的な構成でプライバシを測定するための2つのオブジェクトを紹介した。
完全適応型プライバシは、ほぼ損失なく取得可能であることを示し、我々の結果が(定数であっても)本質的には改善不可能であると予想する。
- 参考スコア(独自算出の注目度): 54.296220672687944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Composition is a key feature of differential privacy. Well-known advanced
composition theorems allow one to query a private database quadratically more
times than basic privacy composition would permit. However, these results
require that the privacy parameters of all algorithms be fixed before
interacting with the data. To address this, Rogers et al. introduced fully
adaptive composition, wherein both algorithms and their privacy parameters can
be selected adaptively. The authors introduce two probabilistic objects to
measure privacy in adaptive composition: privacy filters, which provide
differential privacy guarantees for composed interactions, and privacy
odometers, time-uniform bounds on privacy loss. There are substantial gaps
between advanced composition and existing filters and odometers. First,
existing filters place stronger assumptions on the algorithms being composed.
Second, these odometers and filters suffer from large constants, making them
impractical. We construct filters that match the tightness of advanced
composition, including constants, despite allowing for adaptively chosen
privacy parameters. We also construct several general families of odometers.
These odometers can match the tightness of advanced composition at an
arbitrary, preselected point in time, or at all points in time simultaneously,
up to a doubly-logarithmic factor. We obtain our results by leveraging recent
advances in time-uniform martingale concentration. In sum, we show that fully
adaptive privacy is obtainable at almost no loss, and conjecture that our
results are essentially unimprovable (even in constants) in general.
- Abstract(参考訳): 構成は差分プライバシーの重要な特徴である。
よく知られている高度な合成定理は、プライバシの基本的な構成が許すよりも2倍の頻度でプライベートデータベースをクエリできる。
しかし、これらの結果は、すべてのアルゴリズムのプライバシパラメータをデータとやりとりする前に修正する必要がある。
これを解決するためにRogersらは、アルゴリズムとプライバシパラメータの両方を適応的に選択できる完全適応型合成を導入した。
著者らは、適応的な構成でプライバシを測定するための2つの確率的オブジェクトを紹介した。プライバシーフィルタは、構成されたインタラクションに対する異なるプライバシ保証を提供する。
高度な合成と既存のフィルターとオドメーターの間には大きなギャップがある。
まず、既存のフィルタは、構成されるアルゴリズムに強い仮定を与える。
第二に、これらのオドメータとフィルターは大きな定数に苦しめられ、実用的でない。
適応的に選択されたプライバシパラメータが許されているにもかかわらず、定数を含む高度な構成の厳密さに適合するフィルタを構築する。
また、オドメーターの一般的なファミリーもいくつか構築する。
これらのオドメータは、任意の、事前選択された時点、あるいは全ての時点において、二重対数係数まで、高度な組成のタイトネスを一致させることができる。
我々は, 時間均一マルティンゲール濃度の最近の進歩を利用して, 結果を得た。
結論として,完全適応プライバシは損失がほとんどなく取得可能であり,その結果は(定数においても)本質的に改善不可能である,と推測する。
関連論文リスト
- Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Mean Estimation Under Heterogeneous Privacy Demands [5.755004576310333]
本研究は,各ユーザが自身のプライバシレベルを設定できる平均推定の問題について考察する。
提案するアルゴリズムは,ミニマックス最適であり,ほぼ直線的な実行時間を有することを示す。
プライバシー要件が低いが異なるユーザは、すべて同じ金額で、必要以上のプライバシーを与えられる。
論文 参考訳(メタデータ) (2023-10-19T20:29:19Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Mean Estimation Under Heterogeneous Privacy: Some Privacy Can Be Free [13.198689566654103]
本研究は,異種差分プライバシー制約に基づく平均推定の問題について考察する。
提案するアルゴリズムは,プライバシレベルが異なる2つのユーザグループが存在する場合に,ミニマックス最適であることが示されている。
論文 参考訳(メタデータ) (2023-04-27T05:23:06Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Practical Privacy Filters and Odometers with R\'enyi Differential
Privacy and Applications to Differentially Private Deep Learning [0.0]
我々はR'enyi Differential Privacyのレンズを通して、適応的なプライバシー予算の下でDP組成を研究します。
より単純な合成定理をより小さい定数で証明し、アルゴリズム設計に十分な実用性を与える。
論文 参考訳(メタデータ) (2021-03-02T00:37:11Z) - Individual Privacy Accounting via a Renyi Filter [33.65665839496798]
個人ごとのパーソナライズされたプライバシ損失推定値に基づいて、より厳格なプライバシ損失会計を行う方法を提案する。
我々のフィルターは、Rogersらによる$(epsilon,delta)$-differential privacyの既知のフィルタよりもシンプルできつい。
論文 参考訳(メタデータ) (2020-08-25T17:49:48Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。