論文の概要: Private Lossless Multiple Release
- arxiv url: http://arxiv.org/abs/2505.22449v1
- Date: Wed, 28 May 2025 15:10:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.677491
- Title: Private Lossless Multiple Release
- Title(参考訳): プライベートロスレス多重リリース
- Authors: Joel Daniel Andersson, Lukas Retschmeier, Boel Nelson, Rasmus Pagh,
- Abstract要約: Koufogiannis et al. は Laplace ノイズに基づく微分プライベートなメカニズムに対して $textitgradual release$ result を示した。
より一般的な$textitmultiple release$設定では、アナリストが異なるプライバシパラメータでプライベートリリースを保持します。
- 参考スコア(独自算出の注目度): 9.546521474972485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Koufogiannis et al. (2016) showed a $\textit{gradual release}$ result for Laplace noise-based differentially private mechanisms: given an $\varepsilon$-DP release, a new release with privacy parameter $\varepsilon' > \varepsilon$ can be computed such that the combined privacy loss of both releases is at most $\varepsilon'$ and the distribution of the latter is the same as a single release with parameter $\varepsilon'$. They also showed gradual release techniques for Gaussian noise, later also explored by Whitehouse et al. (2022). In this paper, we consider a more general $\textit{multiple release}$ setting in which analysts hold private releases with different privacy parameters corresponding to different access/trust levels. These releases are determined one by one, with privacy parameters in arbitrary order. A multiple release is $\textit{lossless}$ if having access to a subset $S$ of the releases has the same privacy guarantee as the least private release in $S$, and each release has the same distribution as a single release with the same privacy parameter. Our main result is that lossless multiple release is possible for a large class of additive noise mechanisms. For the Gaussian mechanism we give a simple method for lossless multiple release with a short, self-contained analysis that does not require knowledge of the mathematics of Brownian motion. We also present lossless multiple release for the Laplace and Poisson mechanisms. Finally, we consider how to efficiently do gradual release of sparse histograms, and present a mechanism with running time independent of the number of dimensions.
- Abstract(参考訳): Koufogiannis et al (2016) は、Laplace ノイズベースの差分的プライベートなメカニズムに対する $\textit{gradual release}$ result for Laplace noise-based differentially private mechanism: given a $\varepsilon$-DP release, a new release with privacy parameter with $\varepsilon' > \varepsilon$ can be computed such that the combined privacy loss of both release is most $\varepsilon'$ and the distribution of the distribution is same as a single release with parameter $\varepsilon'$。
彼らはまた、後にWhitehouse et al (2022)によって調査されたガウスノイズの段階的なリリーステクニックも示した。
本稿では、より一般的な$\textit{multiple release}$の設定について考察する。
これらのリリースは、プライバシパラメータを任意の順序で、ひとつずつ決定される。
複数のリリースは$\textit{lossless}$で、サブセットの$S$にアクセスできる場合、リリースの最小プライベートリリースと同じプライバシ保証が$S$で、各リリースは同じプライバシパラメータを持つ単一リリースと同じディストリビューションを持つ。
我々の主な成果は、多数の付加雑音機構に対してロスレス多重リリースが可能であることである。
ガウス機構に対しては、ブラウン運動の数学の知識を必要としない短い自己完結解析を用いて、損失のない多重リリースの簡単な方法を与える。
また、Laplace と Poisson のメカニズムに対する損失のない多重リリースも提示する。
最後に,スパースヒストグラムの段階的放出を効率的に行う方法について検討し,次元数に依存しない実行時間を持つ機構を提案する。
関連論文リスト
- Approximate Differential Privacy of the $\ell_2$ Mechanism [52.61055173572399]
我々は、近似微分プライバシーの下で、$d$次元統計量と有界$ell$感度を計算するための$ell$メカニズムについて研究する。
プライバシパラメータの範囲で、$ell$メカニズムはLaplaceやGaussianのメカニズムよりも低いエラーを得る。
論文 参考訳(メタデータ) (2025-02-21T20:56:34Z) - Optimized Tradeoffs for Private Prediction with Majority Ensembling [59.99331405291337]
本稿では,データ依存型ランダム化応答行列(DaRRM)アルゴリズムを提案する。
DaRRMはデータ依存ノイズ関数$gamma$でパラメータ化され、全てのプライベートアルゴリズムのクラスに対して効率的なユーティリティ最適化を可能にする。
本稿では,DARRMが共通ベースラインよりも2倍のプライバシゲインを,固定ユーティリティで確実に享受していることを示す。
論文 参考訳(メタデータ) (2024-11-27T00:48:48Z) - Smooth Sensitivity for Geo-Privacy [17.835910182900985]
微分プライバシーの局所モデル (LDP) は、この問題が研究されている主要なモデルである。
Geo-Privacy (GP) は、識別可能性のレベルが$mathrmdist(x_i, x_i')$に比例することを規定している。
微分プライバシーからGeo-Privacyへのスムーズな感度フレームワークを一般化することで、与えられたインスタンスの硬さに合わせてノイズを加えることができます。
論文 参考訳(メタデータ) (2024-05-10T08:32:07Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - Robust Estimation of Discrete Distributions under Local Differential
Privacy [1.52292571922932]
局所的な差分プライバシー制約の下で,n$の汚染データバッチから離散分布を推定する問題を考察する。
2つの制約を組み合わせることで、$epsilonsqrtd/alpha2 k+sqrtd2/alpha2 kn$を$sqrtlog (1/epsilon)$ factorに設定できる。
論文 参考訳(メタデータ) (2022-02-14T15:59:02Z) - Infinitely Divisible Noise in the Low Privacy Regime [9.39772079241093]
ユーザ間でデータを分散し、共有しないフェデレーション学習は、プライバシ保護機械学習に対する一般的なアプローチとして現れている。
実数値データに対して、最初の可除な無限ノイズ分布を提示し、$varepsilon$-differential privacyを実現する。
論文 参考訳(メタデータ) (2021-10-13T08:16:43Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Learning discrete distributions: user vs item-level privacy [47.05234904407048]
近年,フェデレート学習のような実践的なアプリケーションでは,単一ユーザのすべての項目に対するプライバシ保護が求められている。
ユーザレベルの差分プライバシーを持つシンボルを$k$で学習する際の基本的な問題について検討する。
ユーザ数が$tildemathcalO(k/(malpha2) + k/sqrtmepsilonalpha)$とスケールする仕組みを提案する。
論文 参考訳(メタデータ) (2020-07-27T16:15:14Z) - BUDS: Balancing Utility and Differential Privacy by Shuffling [3.618133010429131]
シャッフルやtextitBUDS によるユーティリティと差分プライバシーのバランスをとることは、クラウドソースの統計データベースへのアプローチである。
損失推定法とリスク最小化法を併用したワンホット符号化と反復シャッフル法により,新しいアルゴリズムを提案する。
バランスのとれたユーティリティとプライバシの実証テストの間、BUDSは$epsilon = 0.02$を生成します。
論文 参考訳(メタデータ) (2020-06-07T11:39:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。