論文の概要: Noise Reduction for Pufferfish Privacy: A Practical Noise Calibration Method
- arxiv url: http://arxiv.org/abs/2601.06385v1
- Date: Sat, 10 Jan 2026 02:01:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.783784
- Title: Noise Reduction for Pufferfish Privacy: A Practical Noise Calibration Method
- Title(参考訳): ふわふわのプライバシの騒音低減 : 実用的騒音校正法
- Authors: Wenjin Yang, Ni Ding, Zijian Zhang, Jing Sun, Zhen Li, Yan Wu, Jiahang Sun, Haotian Lin, Yong Liu, Jincheng An, Liehuang Zhu,
- Abstract要約: 本稿では, 既存の過度な騒音を緩和し, 既存の1ドル=ワッサーシュタイン(カントロビッチ)機構に基づく。
我々は、我々のアプローチによる厳密なノイズ低減が、すべてのプライバシー予算に対して$$$および以前の信念に対して$$-Wassersteinメカニズムよりも常に存在することを証明している。
3つの実世界のデータセットの実験結果は、データユーティリティが47%から87%改善されたことを示している。
- 参考スコア(独自算出の注目度): 39.60741423066451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a relaxed noise calibration method to enhance data utility while attaining pufferfish privacy. This work builds on the existing $1$-Wasserstein (Kantorovich) mechanism by alleviating the existing overly strict condition that leads to excessive noise, and proposes a practical mechanism design algorithm as a general solution. We prove that a strict noise reduction by our approach always exists compared to $1$-Wasserstein mechanism for all privacy budgets $ε$ and prior beliefs, and the noise reduction (also represents improvement on data utility) gains increase significantly for low privacy budget situations--which are commonly seen in real-world deployments. We also analyze the variation and optimality of the noise reduction with different prior distributions. Moreover, all the properties of the noise reduction still exist in the worst-case $1$-Wasserstein mechanism we introduced, when the additive noise is largest. We further show that the worst-case $1$-Wasserstein mechanism is equivalent to the $\ell_1$-sensitivity method. Experimental results on three real-world datasets demonstrate $47\%$ to $87\%$ improvement in data utility.
- Abstract(参考訳): 本稿では,フグのプライバシーを確保しつつ,データの有用性を高めるため,緩やかなノイズ校正手法を提案する。
この研究は、過度なノイズにつながる既存の過度に厳密な条件を緩和することにより、既存の$$Wasserstein (Kantorovich) メカニズムに基づいており、一般的な解決策として実用的なメカニズム設計アルゴリズムを提案する。
当社のアプローチによる厳密なノイズ低減は,すべてのプライバシ予算に対してε$およびそれ以前の信念に対して1ドルのWassersteinメカニズムよりも常に存在することを証明しています。
また,先行分布の異なるノイズ低減の変動と最適性も分析した。
さらに、付加雑音が大きい場合に導入した最悪の1ドル=ワッサースタイン機構には、ノイズ低減のすべての特性が残っている。
さらに、最悪の1ドル=ワッサースタイン機構は$\ell_1$-sensitivity法と等価であることを示す。
3つの実世界のデータセットの実験結果から、データユーティリティの改善は4,7 %から8,7 %に向上した。
関連論文リスト
- Sequential Subspace Noise Injection Prevents Accuracy Collapse in Certified Unlearning [28.628342735283752]
差分プライバシーに基づく認定されていない未学習は、強い保証を提供するが、ほとんど実践的ではない。
本稿では,パラメータ空間のサブスペース間でノイズ予算を分散する逐次ノイズスケジューリングを提案する。
ノイズの多い微調整の分析をサブスペース設定に拡張し、同じ$(varepsilon,)$プライバシー予算が維持されていることを証明します。
論文 参考訳(メタデータ) (2026-01-08T17:23:13Z) - DPSR: Differentially Private Sparse Reconstruction via Multi-Stage Denoising for Recommender Systems [5.237172334460829]
ディファレンシャルプライバシは、レコメンデーションシステムでユーザーデータを保護するためのゴールドスタンダードとして登場した。
既存のプライバシー保護メカニズムは、プライバシー予算が厳しくなるにつれ、根本的な課題に直面している。
DPSRは,新しい3段階のデノベーションフレームワークである。
論文 参考訳(メタデータ) (2025-12-22T00:43:29Z) - Sign Operator for Coping with Heavy-Tailed Noise in Non-Convex Optimization: High Probability Bounds Under $(L_0, L_1)$-Smoothness [74.18546828528298]
SignSGD with Majority Votingは,Kappakappakappa-1right,Kappakappakappa-1right,Kappakappakappa-1right,Kappakappakappa-1right,Kappaka ppakappa-1right,Kappakappakappa-1right,Kappakappakappa-1right,Kappakappakappa-1right,Kappakappakappa -1right,Kappakappakappa-1right,Kappakappakappa-1right,Kappakappappapa-1right,Kappaを用いて,複雑性の全範囲で堅牢に動作することを示す。
論文 参考訳(メタデータ) (2025-02-11T19:54:11Z) - Attack-Aware Noise Calibration for Differential Privacy [11.222654178949234]
差分プライバシー(DP)は、機密データに基づいて機械学習モデルをトレーニングする際のプライバシーリスクを軽減するために広く用いられるアプローチである。
プライバシとユーティリティのトレードオフを決定するため、追加されるノイズの規模は極めて重要です。
まず、ノイズスケールをプライバシー予算$varepsilon$に調整し、それからリスクを攻撃するためにepsilonを翻訳すると、過度に保守的なリスク評価につながることを示す。
論文 参考訳(メタデータ) (2024-07-02T11:49:59Z) - Some Constructions of Private, Efficient, and Optimal $K$-Norm and Elliptic Gaussian Noise [54.34628844260993]
微分プライベートな計算は、しばしば$d$次元統計学の感度に束縛されて始まる。
純粋な微分プライバシーのために、$K$-normメカニズムは統計学の感度空間に合わせた規範を用いてこのアプローチを改善することができる。
本稿では,総和,数,投票の単純な統計量について両問題を解く。
論文 参考訳(メタデータ) (2023-09-27T17:09:36Z) - Dynamic Global Sensitivity for Differentially Private Contextual Bandits [37.413361483987835]
モデルパラメータにラプラスノイズやガウスノイズを付加する木構造機構を用いて、微分プライベートな線形文脈帯域幅アルゴリズムを提案する。
私たちの重要な洞察は、オンライン更新中にモデルが収束するにつれて、パラメータのグローバルな感度は時間の経過とともに減少するということです。
我々は,動的大域感度とそれに対応するアルゴリズムの上側後悔境界によって付加される雑音の量について,厳密な理論的解析を行う。
論文 参考訳(メタデータ) (2022-08-30T22:09:08Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z) - Differential privacy for symmetric log-concave mechanisms [0.0]
データベースクエリ結果にランダムノイズを加えることは、プライバシを達成するための重要なツールである。
我々は、すべての対称および対数凹形ノイズ密度に対して、$(epsilon, delta)$-differential privacyに対して十分かつ必要な条件を提供する。
論文 参考訳(メタデータ) (2022-02-23T10:20:29Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。