論文の概要: Privacy amplification by random allocation
- arxiv url: http://arxiv.org/abs/2502.08202v2
- Date: Wed, 19 Mar 2025 17:33:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:29:57.377889
- Title: Privacy amplification by random allocation
- Title(参考訳): ランダムアロケーションによるプライバシーの増幅
- Authors: Vitaly Feldman, Moshe Shenfeld,
- Abstract要約: 我々は、ユーザのデータがランダムに$k$ステップで使用されるアルゴリズムのプライバシ保証を、差分プライベートステップのシーケンス(またはセット)からランダムに選択されるアルゴリズムについて検討する。
このサンプリング方式のプライバシー保証は、よく研究されている独立性(あるいはPoisson)サブサンプリングのプライバシー保証によって上限に達する可能性があることを実証する。
- 参考スコア(独自算出の注目度): 18.231854497751137
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We consider the privacy guarantees of an algorithm in which a user's data is used in $k$ steps randomly and uniformly chosen from a sequence (or set) of $t$ differentially private steps. We demonstrate that the privacy guarantees of this sampling scheme can be upper bound by the privacy guarantees of the well-studied independent (or Poisson) subsampling in which each step uses the user's data with probability $(1+ o(1))k/t $. Further, we provide two additional analysis techniques that lead to numerical improvements in some parameter regimes. The case of $k=1$ has been previously studied in the context of DP-SGD in Balle et al. (2020) and very recently in Chua et al. (2024); Choquette-Choo et al. (2024). Privacy analysis of Balle et al. (2020) relies on privacy amplification by shuffling which leads to overly conservative bounds. Privacy analysis of Chua et al. (2024a); Choquette-Choo et al. (2024) relies on Monte Carlo simulations that are computationally prohibitive in many practical scenarios and have additional inherent limitations.
- Abstract(参考訳): 我々は、ユーザのデータがランダムに$k$ステップで使用されるアルゴリズムのプライバシ保証を、差分プライベートステップのシーケンス(またはセット)からランダムに選択されるアルゴリズムについて検討する。
このサンプリング方式のプライバシー保証は、各ステップが確率$(1+ o(1))k/t$でユーザのデータを使用する、よく研究された独立性(あるいはPoisson)サブサンプリングのプライバシー保証によって上限値になる可能性があることを実証する。
さらに,パラメータ構造を数値的に改善する2つの解析手法を提案する。
k=1$のケースは以前、Balle et al (2020) のDP-SGDの文脈で研究され、ごく最近になって Chua et al (2024) や Choquette-Choo et al (2024) で研究されている。
Balle et al (2020) のプライバシー分析は、シャッフルによるプライバシーの増幅に依存し、過度に保守的な境界に繋がる。
Chua et al (2024a)、Choquette-Choo et al (2024) のプライバシー分析はモンテカルロシミュレーションに依存しており、多くの現実的なシナリオにおいて計算が禁じられている。
関連論文リスト
- Debiasing Functions of Private Statistics in Postprocessing [6.22153888560487]
データセットの$n$が公開されていない場合、プライベートな手段としてバイアスのない推定器を導出します。
また、推定器を用いて、記録毎の差分プライバシーに対するバイアスのない変換機構を開発する。
論文 参考訳(メタデータ) (2025-02-18T22:16:37Z) - Optimized Tradeoffs for Private Prediction with Majority Ensembling [59.99331405291337]
本稿では,データ依存型ランダム化応答行列(DaRRM)アルゴリズムを提案する。
DaRRMはデータ依存ノイズ関数$gamma$でパラメータ化され、全てのプライベートアルゴリズムのクラスに対して効率的なユーティリティ最適化を可能にする。
本稿では,DARRMが共通ベースラインよりも2倍のプライバシゲインを,固定ユーティリティで確実に享受していることを示す。
論文 参考訳(メタデータ) (2024-11-27T00:48:48Z) - Individualized Privacy Accounting via Subsampling with Applications in Combinatorial Optimization [55.81991984375959]
本研究では、以下の簡単な観察を通して、個別化されたプライバシ会計を解析する新しい手法を提案する。
我々は、分解可能な部分モジュラーおよびセットアルゴリズム被覆を含む、プライベート最適化問題に対するいくつかの改良されたアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-05-28T19:02:30Z) - Avoiding Pitfalls for Privacy Accounting of Subsampled Mechanisms under Composition [13.192083588571384]
我々は、サブサンプルの差分秘密機構の構成に対する厳密なプライバシー保証の計算の問題を考える。
近年のアルゴリズムでは、プライバシーパラメータを任意の精度で数値計算できるが、慎重に適用する必要がある。
論文 参考訳(メタデータ) (2024-05-27T20:30:12Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Privacy Profiles for Private Selection [21.162924003105484]
私たちは、ReportNoisyMaxとPrivateTuningのプライバシプロファイルを、それらが相関するベースアルゴリズムのプライバシプロファイルを使ってバウンドする、使いやすいレシピを開発しています。
このアプローチはすべての利害関係を改善し、エンドツーエンドのプライベート学習実験において大きなメリットをもたらす。
論文 参考訳(メタデータ) (2024-02-09T08:31:46Z) - A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - Enhancing Trade-offs in Privacy, Utility, and Computational Efficiency through MUltistage Sampling Technique (MUST) [3.0939420223851446]
プライバシ・アンプリフィケーション(PA)のためのサブサンプリング手法のクラスを提案する。
本研究は2段階MUST法におけるPA効果と実用性について包括的に解析する。
MUSTの繰り返し適用に関するプライバシー損失構成分析を行う。
論文 参考訳(メタデータ) (2023-12-20T19:38:29Z) - Privacy Amplification via Shuffling: Unified, Simplified, and Tightened [20.10078781197001]
シングルメッセージとマルチメッセージのシャッフルプロトコルの両方において、プライバシーを増幅するための包括的なフレームワークを提案する。
我々の理論的な結果は、特に極端確率設計を持つ局所確率化器に対して、我々のフレームワークがより厳密な境界を提供することを示している。
私たちのバウンダリは、非常に効率的な$tildeO(n)$アルゴリズムで、$n=108$ユーザに対して10$秒未満で、数値的にプライバシを増幅します。
論文 参考訳(メタデータ) (2023-04-11T06:27:25Z) - Individual Privacy Accounting with Gaussian Differential Privacy [8.81666701090743]
個別のプライバシ会計は、分析に関わる各関係者に対して、差分プライバシー(DP)の損失を個別に制限することを可能にする。
個人のプライバシー損失を原則的に説明するためには、ランダム化機構の適応的な構成のためのプライバシー会計士が必要である。
論文 参考訳(メタデータ) (2022-09-30T17:19:40Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Optimal Algorithms for Mean Estimation under Local Differential Privacy [55.32262879188817]
そこで本研究では,PrivUnitが局所的プライベートな乱数化器群間の最適分散を実現することを示す。
また,ガウス分布に基づくPrivUnitの新たな変種も開発しており,数学的解析に適しており,同じ最適性保証を享受できる。
論文 参考訳(メタデータ) (2022-05-05T06:43:46Z) - Nonparametric extensions of randomized response for private confidence sets [51.75485869914048]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - Private Alternating Least Squares: Practical Private Matrix Completion
with Tighter Rates [34.023599653814415]
ユーザレベルのプライバシの下で、差分的プライベート(DP)行列補完の問題について検討する。
本稿では,Alternating-Least-Squares (ALS) 方式の差分型を設計する。
論文 参考訳(メタデータ) (2021-07-20T23:19:11Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。