論文の概要: Differential Privacy with Higher Utility by Exploiting Coordinate-wise Disparity: Laplace Mechanism can Beat Gaussian in High Dimensions
- arxiv url: http://arxiv.org/abs/2302.03511v2
- Date: Sat, 30 Mar 2024 13:30:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 16:13:48.304853
- Title: Differential Privacy with Higher Utility by Exploiting Coordinate-wise Disparity: Laplace Mechanism can Beat Gaussian in High Dimensions
- Title(参考訳): コーディネートワイド格差の発散による高実用性を有する差別プライバシ:ラプラス機構は高次元でガウスに勝る
- Authors: Gokularam Muthukrishnan, Sheetal Kalyani,
- Abstract要約: 我々は、i.n.d. Gaussian と Laplace のメカニズムを研究し、これらのメカニズムがプライバシーを保証する条件を得る。
我々は、i.n.d.ノイズが座標降下によるプライベートな経験的リスク最小化の性能をいかに向上させるかを示す。
- 参考スコア(独自算出の注目度): 9.20186865054847
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Conventionally, in a differentially private additive noise mechanism, independent and identically distributed (i.i.d.) noise samples are added to each coordinate of the response. In this work, we formally present the addition of noise which is independent, but not identically distributed (i.n.i.d.) across the coordinates to achieve tighter privacy-accuracy trade-off by exploiting coordinate-wise disparity. In particular, we study the i.n.i.d. Gaussian and Laplace mechanisms and obtain the conditions under which these mechanisms guarantee privacy. The optimal choice of parameters that ensure these conditions are derived theoretically. Theoretical analyses and numerical simulations demonstrate that the i.n.i.d. mechanisms achieve higher utility for the given privacy requirements compared to their i.i.d. counterparts. One of the interesting observations is that the Laplace mechanism outperforms Gaussian even in high dimensions, as opposed to the popular belief, if the irregularity in coordinate-wise sensitivities is exploited. We also demonstrate how the i.n.i.d. noise can improve the performance in the private empirical risk minimization through coordinate descent.
- Abstract(参考訳): 従来、差分的にプライベートな付加雑音機構では、応答のそれぞれの座標に独立かつ同一に分布するノイズサンプルが加算される。
本研究は, 独立性のあるノイズの追加を公式に提示するが, 座標上の不均一性を利用して, より厳密なプライバシー・正確性トレードオフを実現するために, 座標に均等に分散していない(すなわちd)。
特に、i.n.d. Gaussian と Laplace のメカニズムを研究し、これらのメカニズムがプライバシーを保証する条件を得る。
これらの条件を保証するパラメータの最適選択は理論的に導出される。
理論的解析と数値シミュレーションにより、i.i.d.のメカニズムは、i.i.d.のメカニズムと比較して、与えられたプライバシ要求に対して高い実用性を達成することが示された。
興味深い観察の1つは、座標的な感度の不規則性が悪用される場合、ラプラス機構は、一般的な信念とは対照的に、高次元においてもガウス的よりも優れていることである。
また、i.n.d.ノイズが座標降下によるプライベートな経験的リスク最小化の性能をいかに向上させるかを示す。
関連論文リスト
- Universal Exact Compression of Differentially Private Mechanisms [47.57948804514929]
本稿では,任意の局所乱数化器の圧縮とシミュレートを目的とした,Poisson private representation (PPR) と呼ばれる新しい構成を提案する。
PPRは、データの結合分布と元のローカルランダム化器の出力を保存する。
実験結果から、PPRはコミュニケーション、正確性、中央および局所的な差分プライバシーの間のトレードオフを一貫して改善することが示された。
論文 参考訳(メタデータ) (2024-05-28T23:54:31Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - On the Privacy of Selection Mechanisms with Gaussian Noise [44.577599546904736]
ガウス雑音によるReport Noisy MaxとAbove Thresholdの分析を再検討する。
その結果,Report Noisy Max の純元 DP 境界と Above Threshold の純元 DP 境界を提供することが可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-09T02:11:25Z) - The Symmetric alpha-Stable Privacy Mechanism [0.0]
本稿では,Symmetric alpha-Stable (SaS) 機構の新しい解析法を提案する。
この機構は、畳み込みの下で閉じたまま、純粋に微分プライベートであることを示す。
論文 参考訳(メタデータ) (2023-11-29T16:34:39Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - Introducing the Huber mechanism for differentially private low-rank
matrix completion [9.944551494217075]
差分プライバシーを維持するための新しいノイズ付加機構を提案する。
提案するHuberメカニズムは,既存の差分プライバシーメカニズムに対して評価される。
提案機構は,Laplace機構と同様のエプシロン差分プライバシーを実現する。
論文 参考訳(メタデータ) (2022-06-16T04:33:06Z) - The Skellam Mechanism for Differentially Private Federated Learning [28.623090760737075]
2つの独立なポアソン確率変数の差に基づく離散微分プライバシー機構である多次元スケラム機構を導入する。
本研究では,2つのシフトしたSkellam分布間のR'enyi分散を,数値評価により解析し,シャープな境界を与える。
集中型プライバシアプリケーションと分散型プライバシアプリケーションの両方で有用であるが、フェデレーション学習の文脈でどのように適用できるかを検討する。
論文 参考訳(メタデータ) (2021-10-11T04:28:11Z) - A unified interpretation of the Gaussian mechanism for differential
privacy through the sensitivity index [61.675604648670095]
GMの一般的な3つの解釈、すなわち$(varepsilon, delta)$-DP, f-DP, R'enyi DPは1つのパラメータ$psi$で表現できる。
$psi$は、クエリの感度とノイズ摂動の大きさの2つの基本量をカプセル化することによって、GMとその特性を特徴付ける。
論文 参考訳(メタデータ) (2021-09-22T06:20:01Z) - Learning Numeric Optimal Differentially Private Truncated Additive
Mechanisms [5.079561894598125]
実効性境界が強い付加的なメカニズムに対して,トランクテッドノイズを学習するためのツールを提案する。
平均単調な単調な音から, 対称性やその新しい音を考慮すれば十分であることを示す。
感度境界機構については, 平均単調な単調なノイズから, 対称性とその新しさを考えるのに十分であることを示す。
論文 参考訳(メタデータ) (2021-07-27T17:22:57Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。