論文の概要: Heavy-Tailed Privacy: The Symmetric alpha-Stable Privacy Mechanism
- arxiv url: http://arxiv.org/abs/2504.18411v1
- Date: Fri, 25 Apr 2025 15:14:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.810644
- Title: Heavy-Tailed Privacy: The Symmetric alpha-Stable Privacy Mechanism
- Title(参考訳): ヘビータイドのプライバシー: シンメトリーのアルファ安定プライバシーメカニズム
- Authors: Christopher C. Zawacki, Eyad H. Abed,
- Abstract要約: 本稿では,Symmetric alpha-Stable (SaS) 機構の紹介と解析を行う。
このメカニズムは、畳み込みの下で閉じたまま、純粋な差分プライバシーを実現することを証明している。
また、達成されたプライバシーレベルと密度のパラメータとの微妙な関係についても検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid growth of digital platforms, there is increasing apprehension about how personal data is collected, stored, and used by various entities. These concerns arise from the increasing frequency of data breaches, cyber-attacks, and misuse of personal information for targeted advertising and surveillance. To address these matters, Differential Privacy (DP) has emerged as a prominent tool for quantifying a digital system's level of protection. The Gaussian mechanism is commonly used because the Gaussian density is closed under convolution, and is a common method utilized when aggregating datasets. However, the Gaussian mechanism only satisfies an approximate form of Differential Privacy. In this work, we present and analyze of the Symmetric alpha-Stable (SaS) mechanism. We prove that the mechanism achieves pure differential privacy while remaining closed under convolution. Additionally, we study the nuanced relationship between the level of privacy achieved and the parameters of the density. Lastly, we compare the expected error introduced to dataset queries by the Gaussian and SaS mechanisms. From our analysis, we believe the SaS Mechanism is an appealing choice for privacy-focused applications.
- Abstract(参考訳): デジタルプラットフォームが急速に成長するにつれ、個人データの収集、保存、利用に関する理解が高まっている。
これらの懸念は、データ漏洩の頻度の増加、サイバー攻撃、ターゲット広告と監視のための個人情報の誤用に起因する。
これらの問題に対処するため、デジタルシステムの保護レベルを定量化するための重要なツールとして、差分プライバシー(DP)が登場した。
ガウスのメカニズムは、ガウス密度が畳み込みの下で閉じているため、一般的に使われ、データセットを集約する際に使用される一般的な方法である。
しかし、ガウスのメカニズムは微分プライバシーの近似形式のみを満たす。
本研究では,Symmetric alpha-Stable (SaS) 機構について述べる。
このメカニズムは、畳み込みの下で閉じたまま、純粋な差分プライバシーを実現することを証明している。
さらに, 達成したプライバシーレベルと密度パラメータとの関係について検討した。
最後に,Gaussian と SaS のメカニズムを用いて,データセットクエリに導入された予測誤差を比較した。
分析から、プライバシを重視したアプリケーションには、SaSメカニズムが魅力的な選択だと考えています。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - The Symmetric alpha-Stable Privacy Mechanism [0.0]
本稿では,Symmetric alpha-Stable (SaS) 機構の新しい解析法を提案する。
この機構は、畳み込みの下で閉じたまま、純粋に微分プライベートであることを示す。
論文 参考訳(メタデータ) (2023-11-29T16:34:39Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Differential Privacy with Higher Utility by Exploiting Coordinate-wise Disparity: Laplace Mechanism Can Beat Gaussian in High Dimensions [9.20186865054847]
差分的にプライベートな付加雑音機構では、応答のそれぞれの座標に独立かつ同一に分布するノイズサンプルが付加される。
我々は、i.n.d. Gaussian と Laplace のメカニズムを研究し、これらのメカニズムがプライバシーを保証する条件を得る。
論文 参考訳(メタデータ) (2023-02-07T14:54:20Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z) - Differentially Private M-band Wavelet-Based Mechanisms in Machine
Learning Environments [4.629162607975834]
データにノイズを埋め込む離散Mバンドウェーブレット変換を用いた3つのプライバシ保護機構を開発する。
本機構は,機械学習環境における統計的解析により,差分プライバシーと学習可能性の両方を維持可能であることを示す。
論文 参考訳(メタデータ) (2019-12-30T18:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。