論文の概要: Efficient privacy loss accounting for subsampling and random allocation
- arxiv url: http://arxiv.org/abs/2602.17284v1
- Date: Thu, 19 Feb 2026 11:44:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.003982
- Title: Efficient privacy loss accounting for subsampling and random allocation
- Title(参考訳): サブサンプリングとランダムアロケーションのための効率的なプライバシ損失会計
- Authors: Vitaly Feldman, Moshe Shenfeld,
- Abstract要約: 本研究では,ユーザのデータをランダムなステップで使用するサンプリング方式のプライバシアンプリフィケーション特性について考察する。
ランダムなアロケーションのためのプライバシユーティリティのトレードオフは、少なくともPoissonサブサンプリングのそれと同程度であることを示す。
- 参考スコア(独自算出の注目度): 13.186391867041394
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We consider the privacy amplification properties of a sampling scheme in which a user's data is used in $k$ steps chosen randomly and uniformly from a sequence (or set) of $t$ steps. This sampling scheme has been recently applied in the context of differentially private optimization (Chua et al., 2024a; Choquette-Choo et al., 2025) and communication-efficient high-dimensional private aggregation (Asi et al., 2025), where it was shown to have utility advantages over the standard Poisson sampling. Theoretical analyses of this sampling scheme (Feldman & Shenfeld, 2025; Dong et al., 2025) lead to bounds that are close to those of Poisson sampling, yet still have two significant shortcomings. First, in many practical settings, the resulting privacy parameters are not tight due to the approximation steps in the analysis. Second, the computed parameters are either the hockey stick or Renyi divergence, both of which introduce overheads when used in privacy loss accounting. In this work, we demonstrate that the privacy loss distribution (PLD) of random allocation applied to any differentially private algorithm can be computed efficiently. When applied to the Gaussian mechanism, our results demonstrate that the privacy-utility trade-off for random allocation is at least as good as that of Poisson subsampling. In particular, random allocation is better suited for training via DP-SGD. To support these computations, our work develops new tools for general privacy loss accounting based on a notion of PLD realization. This notion allows us to extend accurate privacy loss accounting to subsampling which previously required manual noise-mechanism-specific analysis.
- Abstract(参考訳): 我々は,ユーザのデータがランダムに選択された$k$ステップにおいて,$t$ステップのシーケンス(あるいはセット)から一様に選択されるサンプリングスキームのプライバシアンプリフィケーション特性について考察する。
このサンプリングスキームは、微分プライベート最適化(Chua et al , 2024a; Choquette-Choo et al , 2025)と通信効率の高い高次元プライベートアグリゲーション(Asi et al , 2025)の文脈で適用され、標準ポアソンサンプリングよりも有効であることが示された。
このサンプリングスキームの理論解析(Feldman & Shenfeld, 2025; Dong et al , 2025)は、ポアソンサンプリングと近い境界を持つが、2つの重大な欠点がある。
第一に、多くの実践的な設定において、分析における近似ステップのため、結果として生じるプライバシーパラメータは厳密ではない。
第二に、計算されたパラメータはホッケースティックか、Renyiの分岐である。
本研究では,任意の微分プライベートアルゴリズムに適用されたランダムアロケーションのプライバシ損失分布(PLD)を効率的に計算できることを実証する。
ガウス機構を適用すると、ランダムアロケーションのプライバシー利用トレードオフはポアソン・サブサンプリングのそれと同程度であることを示す。
特に、DP-SGDによるトレーニングにはランダムアロケーションが適している。
これらの計算を支援するため,本研究はPLD実現の概念に基づく一般プライバシ損失会計のための新しいツールを開発する。
この概念により、これまで手動のノイズ-メカニズム固有の分析を必要としていたサブサンプリングに、正確なプライバシー損失会計を拡張できる。
関連論文リスト
- Privacy amplification by random allocation [18.231854497751137]
我々は,ユーザのデータがランダムに選択された$k$ステップにおいて,$t$ステップのシーケンス(あるいはセット)から一様に選択されるサンプリングスキームのプライバシアンプリフィケーション特性について考察する。
このスキームの既存の分析は、シャッフルによるプライバシーの増幅に頼り、過度に保守的な境界を導いたり、モンテカルロシミュレーションを必要とする。
特に、ランダムな$k$-out-of-t$アロケーションのプライバシ保証は、よく研究されている独立性(あるいはPoisson)サブサンプリングのプライバシー保証によって上限づけられることを示す。
論文 参考訳(メタデータ) (2025-02-12T08:32:10Z) - Scalable DP-SGD: Shuffling vs. Poisson Subsampling [61.19794019914523]
バッチサンプリングをシャッフルしたマルチエポック適応線形クエリ(ABLQ)機構のプライバシ保証に対する新たな下位境界を提供する。
ポアソンのサブサンプリングと比較すると大きな差がみられ, 以前の分析は1つのエポックに限られていた。
本稿では,大規模な並列計算を用いて,Poissonサブサンプリングを大規模に実装する実践的手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T19:06:16Z) - Avoiding Pitfalls for Privacy Accounting of Subsampled Mechanisms under Composition [13.192083588571384]
我々は、サブサンプルの差分秘密機構の構成に対する厳密なプライバシー保証の計算の問題を考える。
近年のアルゴリズムでは、プライバシーパラメータを任意の精度で数値計算できるが、慎重に適用する必要がある。
論文 参考訳(メタデータ) (2024-05-27T20:30:12Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。