論文の概要: Individual Privacy Accounting with Gaussian Differential Privacy
- arxiv url: http://arxiv.org/abs/2209.15596v1
- Date: Fri, 30 Sep 2022 17:19:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 15:05:30.234165
- Title: Individual Privacy Accounting with Gaussian Differential Privacy
- Title(参考訳): gaussian differential privacyを用いた個人プライバシー会計
- Authors: Antti Koskela, Marlon Tobaben and Antti Honkela
- Abstract要約: 個別のプライバシ会計は、各参加者に対して個別に差分プライバシー(DP)損失を限定することができる。
個人のプライバシー損失を原則的に説明するためには、ランダム化機構の適応的な構成のためのプライバシー会計士が必要である。
- 参考スコア(独自算出の注目度): 7.305019142196582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Individual privacy accounting enables bounding differential privacy (DP) loss
individually for each participant involved in the analysis. This can be
informative as often the individual privacy losses are considerably smaller
than those indicated by the DP bounds that are based on considering worst-case
bounds at each data access. In order to account for the individual privacy
losses in a principled manner, we need a privacy accountant for adaptive
compositions of randomised mechanisms, where the loss incurred at a given data
access is allowed to be smaller than the worst-case loss. This kind of analysis
has been carried out for the R\'enyi differential privacy (RDP) by Feldman and
Zrnic (2021), however not yet for the so-called optimal privacy accountants. We
make first steps in this direction by providing a careful analysis using the
Gaussian differential privacy which gives optimal bounds for the Gaussian
mechanism, one of the most versatile DP mechanisms. This approach is based on
determining a certain supermartingale for the hockey-stick divergence and on
extending the R\'enyi divergence-based fully adaptive composition results by
Feldman and Zrnic (2021). We also consider measuring the individual
$(\varepsilon,\delta)$-privacy losses using the so-called privacy loss
distributions. With the help of the Blackwell theorem, we can then make use of
the RDP analysis to construct an approximative individual
$(\varepsilon,\delta)$-accountant.
- Abstract(参考訳): 個別のプライバシ会計は、分析に関わる各関係者に対して、差分プライバシー(DP)損失を個別に制限することを可能にする。
これは、個々のプライバシの損失が、各データアクセスの最悪のケース境界を考慮に入れたdpバウンダリよりもかなり小さいため、情報を提供する。
個別のプライバシ損失を原則的に説明するためには,データアクセス時に発生する損失を最悪の損失よりも小さくすることができるランダム化機構の適応的な構成のためのプライバシ会計士が必要である。
この種の分析はフェルドマンとzrnic (2021) によって r\'enyi differential privacy (rdp) に対して行われたが、いわゆる最適プライバシー会計士には未だ行われていない。
我々は,最も汎用的なdp機構の1つであるガウス機構の最適境界を与えるガウス微分プライバシーを用いて,注意深い解析を行うことで,この方向への第一歩を踏み出す。
このアプローチは、ホッケースティックの発散に対する特定のスーパーマーチンゲールの決定と、フェルドマンとzrnicによるr\'enyi発散に基づく完全適応合成結果の拡張に基づいている(2021年)。
また、いわゆるプライバシー損失分布を用いて、個々の$(\varepsilon,\delta)$-privacy損失を測定することを検討する。
ブラックウェルの定理の助けを借りて、RDP解析を用いて近似的個人$(\varepsilon,\delta)$-accountantを構築することができる。
関連論文リスト
- Avoiding Pitfalls for Privacy Accounting of Subsampled Mechanisms under Composition [13.192083588571384]
我々は、サブサンプルの差分秘密機構の構成に対する厳密なプライバシー保証の計算の問題を考える。
近年のアルゴリズムでは、プライバシーパラメータを任意の精度で数値計算できるが、慎重に適用する必要がある。
論文 参考訳(メタデータ) (2024-05-27T20:30:12Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Fixed-Budget Differentially Private Best Arm Identification [62.36929749450298]
差分プライバシー制約下における固定予算制度における線形包帯のベストアーム識別(BAI)について検討した。
誤差確率に基づいてミニマックス下限を導出し、下限と上限が指数関数的に$T$で崩壊することを示した。
論文 参考訳(メタデータ) (2024-01-17T09:23:25Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Optimal Accounting of Differential Privacy via Characteristic Function [25.78065563380023]
本稿では,プライバシ・プロフィール,プライバシ・プロファイル,$f$-DP,PLDフォーマリズムなどの最近の進歩を,ある最悪のケースのプライバシ・ロスランダム変数の特徴関数(phi$-function)を介して統一することを提案する。
我々のアプローチは、Renyi DPのような自然適応的な構成を可能にし、PDDのような厳密なプライバシ会計を提供し、プライバシープロファイルや$f$-DPに変換できることが示されています。
論文 参考訳(メタデータ) (2021-06-16T06:13:23Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Individual Privacy Accounting via a Renyi Filter [33.65665839496798]
個人ごとのパーソナライズされたプライバシ損失推定値に基づいて、より厳格なプライバシ損失会計を行う方法を提案する。
我々のフィルターは、Rogersらによる$(epsilon,delta)$-differential privacyの既知のフィルタよりもシンプルできつい。
論文 参考訳(メタデータ) (2020-08-25T17:49:48Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。