論文の概要: Optimizing Noise for $f$-Differential Privacy via Anti-Concentration and Stochastic Dominance
- arxiv url: http://arxiv.org/abs/2308.08343v3
- Date: Mon, 11 Nov 2024 08:23:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:03:00.334939
- Title: Optimizing Noise for $f$-Differential Privacy via Anti-Concentration and Stochastic Dominance
- Title(参考訳): アンチ集中と確率支配による$f$差分プライバシーのための雑音の最適化
- Authors: Jordan Awan, Aishwarya Ramasethu,
- Abstract要約: 正準雑音分布 (CND) は, 半整数値で反集束境界に一致することを示す。
離散 CND の新たな概念を提案し、離散 CND が常に存在することを証明する。
我々の理論的結果は、$f$DPフレームワークで可能な様々な種類のプライバシー保証に光を当て、パフォーマンスを最適化するより複雑なメカニズムに組み込まれることができます。
- 参考スコア(独自算出の注目度): 7.581259361859479
- License:
- Abstract: In this paper, we establish anti-concentration inequalities for additive noise mechanisms which achieve $f$-differential privacy ($f$-DP), a notion of privacy phrased in terms of a tradeoff function $f$ which limits the ability of an adversary to determine which individuals were in the database. We show that canonical noise distributions (CNDs), proposed by Awan and Vadhan (2023), match the anti-concentration bounds at half-integer values, indicating that their tail behavior is near-optimal. We also show that all CNDs are sub-exponential, regardless of the $f$-DP guarantee. In the case of log-concave CNDs, we show that they are the stochastically smallest noise compared to any other noise distributions with the same privacy guarantee. In terms of integer-valued noise, we propose a new notion of discrete CND and prove that a discrete CND always exists, can be constructed by rounding a continuous CND, and that the discrete CND is unique when designed for a statistic with sensitivity 1. We further show that the discrete CND at sensitivity 1 is stochastically smallest compared to other integer-valued noises. Our theoretical results shed light on the different types of privacy guarantees possible in the $f$-DP framework and can be incorporated in more complex mechanisms to optimize performance.
- Abstract(参考訳): 本稿では,差分プライバシー(f$-DP)を実現する付加雑音機構の反集中不等式を確立する。これは,データベース内の個人を識別する相手の能力を制限するトレードオフ関数$f$という用語で表現されたプライバシーの概念である。
Awan and Vadhan (2023) が提唱した標準雑音分布 (CNDs) は, 半整数値の反集束境界と一致し, 尾の挙動がほぼ最適であることを示す。
また、$f$-DPの保証にかかわらず、すべてのCNDがサブ指数であることも示します。
対数対数対数対数対のCNDの場合、同一のプライバシー保証を持つ他のノイズ分布と比較して確率的に最小のノイズであることを示す。
整数値ノイズの観点からは、離散CNDの新しい概念を提案し、離散CNDが常に存在することを証明し、連続CNDを丸めることによって構成でき、感度1の統計量に対して離散CNDが一意であることを示す。
さらに、感度1における離散CNDは、他の整数値ノイズと比較して確率的に小さいことを示す。
我々の理論的結果は、$f$-DPフレームワークで可能な様々な種類のプライバシー保証に光を当て、パフォーマンスを最適化するより複雑なメカニズムに組み込まれることができます。
関連論文リスト
- Stable Neighbor Denoising for Source-free Domain Adaptive Segmentation [91.83820250747935]
擬似ラベルノイズは主に不安定なサンプルに含まれており、ほとんどのピクセルの予測は自己学習中に大きく変化する。
我々は, 安定・不安定な試料を効果的に発見する, SND(Stable Neighbor Denoising)アプローチを導入する。
SNDは、様々なSFUDAセマンティックセグメンテーション設定における最先端メソッドよりも一貫して優れている。
論文 参考訳(メタデータ) (2024-06-10T21:44:52Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Guarantees of confidentiality via Hammersley-Chapman-Robbins bounds [61.50022257278769]
ノイズは最終分類器や他のタスク固有のレイヤの前に、最後のレイヤのアクティベーションに追加される。
入力の可能な全ての非バイアス推定器のばらつきを低くすることは、そのような付加ノイズから生じる機密性を定量化する。
数値実験により、HCR境界は小さなニューラルネットに対して有効である可能性が示唆された。
論文 参考訳(メタデータ) (2024-04-03T16:58:03Z) - A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Differential privacy for symmetric log-concave mechanisms [0.0]
データベースクエリ結果にランダムノイズを加えることは、プライバシを達成するための重要なツールである。
我々は、すべての対称および対数凹形ノイズ密度に対して、$(epsilon, delta)$-differential privacyに対して十分かつ必要な条件を提供する。
論文 参考訳(メタデータ) (2022-02-23T10:20:29Z) - Learning Numeric Optimal Differentially Private Truncated Additive
Mechanisms [5.079561894598125]
実効性境界が強い付加的なメカニズムに対して,トランクテッドノイズを学習するためのツールを提案する。
平均単調な単調な音から, 対称性やその新しい音を考慮すれば十分であることを示す。
感度境界機構については, 平均単調な単調なノイズから, 対称性とその新しさを考えるのに十分であることを示す。
論文 参考訳(メタデータ) (2021-07-27T17:22:57Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。