論文の概要: Privacy amplification by random allocation
- arxiv url: http://arxiv.org/abs/2502.08202v3
- Date: Mon, 02 Jun 2025 02:39:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 16:22:43.065843
- Title: Privacy amplification by random allocation
- Title(参考訳): ランダムアロケーションによるプライバシーの増幅
- Authors: Vitaly Feldman, Moshe Shenfeld,
- Abstract要約: 我々は,ユーザのデータがランダムに選択された$k$ステップにおいて,$t$ステップのシーケンス(あるいはセット)から一様に選択されるサンプリングスキームのプライバシアンプリフィケーション特性について考察する。
このスキームの既存の分析は、シャッフルによるプライバシーの増幅に頼り、過度に保守的な境界を導いたり、モンテカルロシミュレーションを必要とする。
特に、ランダムな$k$-out-of-t$アロケーションのプライバシ保証は、よく研究されている独立性(あるいはPoisson)サブサンプリングのプライバシー保証によって上限づけられることを示す。
- 参考スコア(独自算出の注目度): 18.231854497751137
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We consider the privacy amplification properties of a sampling scheme in which a user's data is used in $k$ steps chosen randomly and uniformly from a sequence (or set) of $t$ steps. This sampling scheme has been recently applied in the context of differentially private optimization [Chua et al., 2024a, Choquette-Choo et al., 2024] and is also motivated by communication-efficient high-dimensional private aggregation [Asi et al., 2025]. Existing analyses of this scheme either rely on privacy amplification by shuffling which leads to overly conservative bounds or require Monte Carlo simulations that are computationally prohibitive in most practical scenarios. We give the first theoretical guarantees and numerical estimation algorithms for this sampling scheme. In particular, we demonstrate that the privacy guarantees of random $k$-out-of-$t$ allocation can be upper bounded by the privacy guarantees of the well-studied independent (or Poisson) subsampling in which each step uses the user's data with probability $(1+o(1))k/t$. Further, we provide two additional analysis techniques that lead to numerical improvements in several parameter regimes. Altogether, our bounds give efficiently-computable and nearly tight numerical results for random allocation applied to Gaussian noise addition.
- Abstract(参考訳): 我々は,ユーザのデータがランダムに選択された$k$ステップにおいて,$t$ステップのシーケンス(あるいはセット)から一様に選択されるサンプリングスキームのプライバシアンプリフィケーション特性について考察する。
このサンプリングスキームは、最近、微分プライベート最適化(Chua et al , 2024a, Choquette-Choo et al , 2024)の文脈で適用され、通信効率の高い高次元プライベートアグリゲーション(Asi et al , 2025)によっても動機付けられている。
このスキームの既存の分析は、シャッフルによるプライバシーの増幅に頼り、過度に保守的な境界を導いたり、モンテカルロシミュレーションを必要とする。
本手法の理論的保証と数値推定アルゴリズムについて述べる。
特に、ランダムな$k$-out-of-t$アロケーションのプライバシ保証は、各ステップが確率$(1+o(1))k/t$でユーザのデータを使用する、よく研究されている独立性(あるいはPoisson)サブサンプリングのプライバシ保証によって上限づけられることを示す。
さらに,いくつかのパラメーター条件において数値的改善をもたらす2つの解析手法を提案する。
さらに, ガウス雑音付加に対するランダムアロケーションについて, 効率よく計算可能で, ほぼ厳密な数値計算結果が得られる。
関連論文リスト
- Debiasing Functions of Private Statistics in Postprocessing [6.22153888560487]
データセットの$n$が公開されていない場合、プライベートな手段としてバイアスのない推定器を導出します。
また、推定器を用いて、記録毎の差分プライバシーに対するバイアスのない変換機構を開発する。
論文 参考訳(メタデータ) (2025-02-18T22:16:37Z) - Optimized Tradeoffs for Private Prediction with Majority Ensembling [59.99331405291337]
本稿では,データ依存型ランダム化応答行列(DaRRM)アルゴリズムを提案する。
DaRRMはデータ依存ノイズ関数$gamma$でパラメータ化され、全てのプライベートアルゴリズムのクラスに対して効率的なユーティリティ最適化を可能にする。
本稿では,DARRMが共通ベースラインよりも2倍のプライバシゲインを,固定ユーティリティで確実に享受していることを示す。
論文 参考訳(メタデータ) (2024-11-27T00:48:48Z) - Avoiding Pitfalls for Privacy Accounting of Subsampled Mechanisms under Composition [13.192083588571384]
我々は、サブサンプルの差分秘密機構の構成に対する厳密なプライバシー保証の計算の問題を考える。
近年のアルゴリズムでは、プライバシーパラメータを任意の精度で数値計算できるが、慎重に適用する必要がある。
論文 参考訳(メタデータ) (2024-05-27T20:30:12Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Privacy Profiles for Private Selection [21.162924003105484]
私たちは、ReportNoisyMaxとPrivateTuningのプライバシプロファイルを、それらが相関するベースアルゴリズムのプライバシプロファイルを使ってバウンドする、使いやすいレシピを開発しています。
このアプローチはすべての利害関係を改善し、エンドツーエンドのプライベート学習実験において大きなメリットをもたらす。
論文 参考訳(メタデータ) (2024-02-09T08:31:46Z) - A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - Individual Privacy Accounting with Gaussian Differential Privacy [8.81666701090743]
個別のプライバシ会計は、分析に関わる各関係者に対して、差分プライバシー(DP)の損失を個別に制限することを可能にする。
個人のプライバシー損失を原則的に説明するためには、ランダム化機構の適応的な構成のためのプライバシー会計士が必要である。
論文 参考訳(メタデータ) (2022-09-30T17:19:40Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Nonparametric extensions of randomized response for private confidence sets [51.75485869914048]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。