論文の概要: The Adverse Effects of Omitting Records in Differential Privacy: How Sampling and Suppression Degrade the Privacy--Utility Tradeoff (Long Version)
- arxiv url: http://arxiv.org/abs/2601.05180v1
- Date: Thu, 08 Jan 2026 18:03:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.325248
- Title: The Adverse Effects of Omitting Records in Differential Privacy: How Sampling and Suppression Degrade the Privacy--Utility Tradeoff (Long Version)
- Title(参考訳): 差別的プライバシにおけるOmtting Recordsの逆効果--プライバシ-ユーティリティトレードオフ(Long Version)のサンプリングと抑制がいかに低下するか-
- Authors: Àlex Miranda-Pascual, Javier Parra-Arnau, Thorsten Strufe,
- Abstract要約: 我々は、レコードの選択や削除の一般的な方法として、抑圧を調査する。
テストされた抑制戦略は、プライバシとユーティリティのトレードオフの改善にも失敗しています。
驚くべきことに、均一なサンプリングは、まだ劣化する効果があるにもかかわらず、最高の抑制方法の1つとして現れます。
- 参考スコア(独自算出の注目度): 4.944150242470857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sampling is renowned for its privacy amplification in differential privacy (DP), and is often assumed to improve the utility of a DP mechanism by allowing a noise reduction. In this paper, we further show that this last assumption is flawed: When measuring utility at equal privacy levels, sampling as preprocessing consistently yields penalties due to utility loss from omitting records over all canonical DP mechanisms -- Laplace, Gaussian, exponential, and report noisy max -- , as well as recent applications of sampling, such as clustering. Extending this analysis, we investigate suppression as a generalized method of choosing, or omitting, records. Developing a theoretical analysis of this technique, we derive privacy bounds for arbitrary suppression strategies under unbounded approximate DP. We find that our tested suppression strategy also fails to improve the privacy--utility tradeoff. Surprisingly, uniform sampling emerges as one of the best suppression methods -- despite its still degrading effect. Our results call into question common preprocessing assumptions in DP practice.
- Abstract(参考訳): サンプリングは、ディファレンシャルプライバシ(DP)におけるプライバシーの増幅で有名であり、ノイズ低減を許すことで、DPメカニズムの実用性を改善すると仮定されることが多い。
本稿では、この最後の仮定に欠陥があることをさらに示す: 同一のプライバシレベルでユーティリティを測定する場合、前処理によるサンプリングは、すべての標準DPメカニズム(Laplace, Gaussian, index, report noisy max)上のレコードの省略によるユーティリティ損失から、一貫してペナルティを生じる。
この分析を拡張して、レコードの選択や削除の一般化方法として、抑圧を調査する。
この手法を理論的に解析し、非有界近似DPの下での任意の抑制戦略のプライバシー境界を導出する。
テストされた抑制戦略は、プライバシとユーティリティのトレードオフの改善にも失敗していることが分かりました。驚くべきことに、均一なサンプリングは、依然として低下しているにもかかわらず、最高の抑制方法の1つとして現れます。
本研究の結果は,DP実践における共通前処理仮定に疑問を呈するものである。
関連論文リスト
- Enhancing DPSGD via Per-Sample Momentum and Low-Pass Filtering [4.9871580445771455]
Differentially Private Gradient Descent(DPSGD)は、正式なプライバシ保証を備えたディープニューラルネットワークのトレーニングに広く使用されている。
既存の手法は、DPノイズの低減がクリッピングバイアスと逆効果を悪化させるため、これらの問題の1つにのみ対処する。
本研究では,サンプルごとの運動量と低域通過フィルタを併用してDPノイズとクリッピングバイアスを同時に緩和する新しい手法であるemphDP-PMLFを提案する。
論文 参考訳(メタデータ) (2025-11-11T23:40:02Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - On the Privacy of Selection Mechanisms with Gaussian Noise [44.577599546904736]
ガウス雑音によるReport Noisy MaxとAbove Thresholdの分析を再検討する。
その結果,Report Noisy Max の純元 DP 境界と Above Threshold の純元 DP 境界を提供することが可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-09T02:11:25Z) - Differentially Private SGD Without Clipping Bias: An Error-Feedback Approach [62.000948039914135]
Differentially Private Gradient Descent with Gradient Clipping (DPSGD-GC) を使用して、差分プライバシ(DP)がモデルパフォーマンス劣化の犠牲となることを保証する。
DPSGD-GCに代わる新しいエラーフィードバック(EF)DPアルゴリズムを提案する。
提案アルゴリズムに対するアルゴリズム固有のDP解析を確立し,R'enyi DPに基づくプライバシ保証を提供する。
論文 参考訳(メタデータ) (2023-11-24T17:56:44Z) - Generalised Likelihood Ratio Testing Adversaries through the
Differential Privacy Lens [69.10072367807095]
微分プライバシー(DP)は、最適な敵の能力に厳格な上限を提供する。
我々は,NPO(Neyman-Pearson-Pearson-Pearson-Pearson-Pearson-Pearson)対GLRT(Generalized Likelihood Test)対向の仮定を緩和する。
この緩やかな緩和は、プライバシー保証の改善につながる。
論文 参考訳(メタデータ) (2022-10-24T08:24:10Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。