論文の概要: Differential Privacy with Higher Utility by Exploiting Coordinate-wise Disparity: Laplace Mechanism Can Beat Gaussian in High Dimensions
- arxiv url: http://arxiv.org/abs/2302.03511v3
- Date: Mon, 14 Oct 2024 15:59:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-15 17:53:50.734355
- Title: Differential Privacy with Higher Utility by Exploiting Coordinate-wise Disparity: Laplace Mechanism Can Beat Gaussian in High Dimensions
- Title(参考訳): コーディネート・ワイド・ディフュージョンの爆発による高実用性を持つ差別的プライバシ:ラプラス機構は高次元でガウスに勝る
- Authors: Gokularam Muthukrishnan, Sheetal Kalyani,
- Abstract要約: 我々は、i.n.d. Gaussian と Laplace のメカニズムを研究し、これらのメカニズムがプライバシーを保証する条件を得る。
i.n.d.ノイズは, (a) 座標降下, (b) 主成分分析, (c) グループクリッピングによる深層学習における性能を向上することを示す。
- 参考スコア(独自算出の注目度): 9.20186865054847
- License:
- Abstract: Conventionally, in a differentially private additive noise mechanism, independent and identically distributed (i.i.d.) noise samples are added to each coordinate of the response. In this work, we formally present the addition of noise that is independent but not identically distributed (i.n.i.d.) across the coordinates to achieve tighter privacy-accuracy trade-off by exploiting coordinate-wise disparity in privacy leakage. In particular, we study the i.n.i.d. Gaussian and Laplace mechanisms and obtain the conditions under which these mechanisms guarantee privacy. The optimal choice of parameters that ensure these conditions are derived theoretically. Theoretical analyses and numerical simulations demonstrate that the i.n.i.d. mechanisms achieve higher utility for the given privacy requirements compared to their i.i.d. counterparts. One of the interesting observations is that the Laplace mechanism outperforms Gaussian even in high dimensions, as opposed to the popular belief, if the irregularity in coordinate-wise sensitivities is exploited. We also demonstrate how the i.n.i.d. noise can improve the performance in private (a) coordinate descent, (b) principal component analysis, and (c) deep learning with group clipping.
- Abstract(参考訳): 従来、差分的にプライベートな付加雑音機構では、応答のそれぞれの座標に独立かつ同一に分布するノイズサンプルが加算される。
本研究は,プライバシリークにおける協調的格差を利用して,より厳密なプライバシ・正確性トレードオフを実現するために,独立して均等に分布しないノイズ(すなわち,d)を追加することを正式に提示する。
特に、i.n.d. Gaussian と Laplace のメカニズムを研究し、これらのメカニズムがプライバシーを保証する条件を得る。
これらの条件を保証するパラメータの最適選択は理論的に導出される。
理論的解析と数値シミュレーションにより、i.i.d.のメカニズムは、i.i.d.のメカニズムと比較して、与えられたプライバシ要求に対して高い実用性を達成することが示された。
興味深い観察の1つは、座標的な感度の不規則性が悪用される場合、ラプラス機構は、一般的な信念とは対照的に、高次元においてもガウス的よりも優れていることである。
また、i.n.i.d.ノイズが個人のパフォーマンスをいかに改善するかを実証する。
(a)座標降下
b)主成分分析,及び
(c)グループクリッピングによる深層学習。
関連論文リスト
- Differentially Private Random Block Coordinate Descent [51.62669821275571]
スケッチ行列を用いて各反復における確率の異なる複数の座標を選択する差分プライベートな座標降下法を提案する。
提案アルゴリズムはDP-CDと従来のDP-SGDの両方を一般化し,有効性を保証する。
論文 参考訳(メタデータ) (2024-12-22T15:06:56Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Universal Exact Compression of Differentially Private Mechanisms [47.57948804514929]
本稿では,任意の局所乱数化器の圧縮とシミュレートを目的とした,Poisson private representation (PPR) と呼ばれる新しい構成を提案する。
PPRは、データの結合分布と元のローカルランダム化器の出力を保存する。
実験結果から、PPRはコミュニケーション、正確性、中央および局所的な差分プライバシーの間のトレードオフを一貫して改善することが示された。
論文 参考訳(メタデータ) (2024-05-28T23:54:31Z) - On the Privacy of Selection Mechanisms with Gaussian Noise [44.577599546904736]
ガウス雑音によるReport Noisy MaxとAbove Thresholdの分析を再検討する。
その結果,Report Noisy Max の純元 DP 境界と Above Threshold の純元 DP 境界を提供することが可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-09T02:11:25Z) - The Symmetric alpha-Stable Privacy Mechanism [0.0]
本稿では,Symmetric alpha-Stable (SaS) 機構の新しい解析法を提案する。
この機構は、畳み込みの下で閉じたまま、純粋に微分プライベートであることを示す。
論文 参考訳(メタデータ) (2023-11-29T16:34:39Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - Introducing the Huber mechanism for differentially private low-rank
matrix completion [9.944551494217075]
差分プライバシーを維持するための新しいノイズ付加機構を提案する。
提案するHuberメカニズムは,既存の差分プライバシーメカニズムに対して評価される。
提案機構は,Laplace機構と同様のエプシロン差分プライバシーを実現する。
論文 参考訳(メタデータ) (2022-06-16T04:33:06Z) - Optimal Algorithms for Mean Estimation under Local Differential Privacy [55.32262879188817]
そこで本研究では,PrivUnitが局所的プライベートな乱数化器群間の最適分散を実現することを示す。
また,ガウス分布に基づくPrivUnitの新たな変種も開発しており,数学的解析に適しており,同じ最適性保証を享受できる。
論文 参考訳(メタデータ) (2022-05-05T06:43:46Z) - A unified interpretation of the Gaussian mechanism for differential
privacy through the sensitivity index [61.675604648670095]
GMの一般的な3つの解釈、すなわち$(varepsilon, delta)$-DP, f-DP, R'enyi DPは1つのパラメータ$psi$で表現できる。
$psi$は、クエリの感度とノイズ摂動の大きさの2つの基本量をカプセル化することによって、GMとその特性を特徴付ける。
論文 参考訳(メタデータ) (2021-09-22T06:20:01Z) - Learning Numeric Optimal Differentially Private Truncated Additive
Mechanisms [5.079561894598125]
実効性境界が強い付加的なメカニズムに対して,トランクテッドノイズを学習するためのツールを提案する。
平均単調な単調な音から, 対称性やその新しい音を考慮すれば十分であることを示す。
感度境界機構については, 平均単調な単調なノイズから, 対称性とその新しさを考えるのに十分であることを示す。
論文 参考訳(メタデータ) (2021-07-27T17:22:57Z) - A Central Limit Theorem for Differentially Private Query Answering [23.015107368002884]
プライバシパラメータの積を示し、そのメカニズムの$ell$-lossは次元によって境界が低くなることを示す。
私たちの発見は数値実験によって裏付けられる。
論文 参考訳(メタデータ) (2021-03-15T21:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。