論文の概要: A Unified Framework and Efficient Computation for Privacy Amplification via Shuffling
- arxiv url: http://arxiv.org/abs/2504.07414v3
- Date: Wed, 16 Apr 2025 12:16:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-25 06:24:21.113389
- Title: A Unified Framework and Efficient Computation for Privacy Amplification via Shuffling
- Title(参考訳): シャッフルによるプライバシ増幅のための統一フレームワークと効率的な計算方法
- Authors: Pengcheng Su, Haibo Cheng, Ping Wang,
- Abstract要約: 本稿では,全分解分析を捉える統一的な視点-テキストジェネラル・クローン・パラダイム-を提示する。
このフレームワーク内での最適分解を同定し、厳密なプライバシー増幅境界を計算するために、FFT(Fast Fourier Transform)に基づく単純で効率的なアルゴリズムを設計する。
- 参考スコア(独自算出の注目度): 6.702635586444281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The shuffle model offers significant privacy amplification over local differential privacy (LDP), enabling improved privacy-utility trade-offs. To analyze and quantify this amplification effect, two primary frameworks have been proposed: the \textit{privacy blanket} (Balle et al., CRYPTO 2019) and the \textit{clone paradigm}, which includes both the \textit{standard clone} and \textit{stronger clone} (Feldman et al., FOCS 2021; SODA 2023). All of these approaches are grounded in decomposing the behavior of local randomizers. In this work, we present a unified perspective--termed the \textit{general clone paradigm}--that captures all decomposition-based analyses. We identify the optimal decomposition within this framework and design a simple yet efficient algorithm based on the Fast Fourier Transform (FFT) to compute tight privacy amplification bounds. Empirical results show that our computed upper bounds nearly match the corresponding lower bounds, demonstrating the accuracy and tightness of our method. Furthermore, we apply our algorithm to derive optimal privacy amplification bounds for both joint composition and parallel composition of LDP mechanisms in the shuffle model.
- Abstract(参考訳): シャッフルモデルは、ローカルディファレンシャルプライバシ(LDP)よりも大幅にプライバシーを増幅し、プライバシとユーティリティのトレードオフを改善する。
この増幅効果を解析し定量化するために、2つの主要なフレームワークが提案されている: \textit{privacy blanket} (Balle et al , CRYPTO 2019) と \textit{clone paradigm} であり、それらは \textit{standard clone} と \textit{stronger clone} (Feldman et al , FOCS 2021; SODA 2023) の両方を含んでいる。
これらのアプローチはすべて、局所確率化器の振る舞いを分解することに基礎を置いている。
そこで本研究では,すべての分解に基づく解析を捉える統一的な視点-textit{ General clone paradigm} を提案する。
このフレームワーク内での最適分解を同定し、厳密なプライバシー増幅境界を計算するためにFFT(Fast Fourier Transform)に基づく単純で効率的なアルゴリズムを設計する。
実験の結果, 計算された上界は対応する下界とほぼ一致し, 精度と厳密性を示した。
さらに,本アルゴリズムを用いて,シャッフルモデルにおけるLDP機構の結合構成と並列構成の両方に対して,最適なプライバシー増幅境界を導出する。
関連論文リスト
- Sample-Optimal Private Regression in Polynomial Time [3.3748750222488657]
アルゴリズムのサンプル複雑性の改善は,統計的クエリや情報理論的下位境界に反することを示した。
アルゴリズムは任意の外れ値の小さな部分に対して頑健であり、外れ値の小さな部分の関数として最適誤差率を達成する。
論文 参考訳(メタデータ) (2025-03-31T17:08:12Z) - The Cost of Shuffling in Private Gradient Based Optimization [40.31928071333575]
その結果, DP-ShuffleGはDP-SGDと比較して, データのシャッフル処理により過大なリスクが生じることがわかった。
我々は、プライベートな最適化に公開データサンプルを統合するハイブリッドアプローチである textitInterleaved-ShuffleG を提案する。
論文 参考訳(メタデータ) (2025-02-05T22:30:00Z) - Individualized Privacy Accounting via Subsampling with Applications in Combinatorial Optimization [55.81991984375959]
本研究では、以下の簡単な観察を通して、個別化されたプライバシ会計を解析する新しい手法を提案する。
我々は、分解可能な部分モジュラーおよびセットアルゴリズム被覆を含む、プライベート最適化問題に対するいくつかの改良されたアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-05-28T19:02:30Z) - Shifted Interpolation for Differential Privacy [6.1836947007564085]
雑音勾配降下とその変種は、微分プライベート機械学習の主要なアルゴリズムである。
本稿では、$f$差分プライバシの統一化フレームワークにおいて、"corollary によるプライバシ増幅" 現象を確立する。
これは、強力な凸最適化の基礎的な設定において、最初の正確なプライバシー分析につながる。
論文 参考訳(メタデータ) (2024-03-01T04:50:04Z) - Enhancing Trade-offs in Privacy, Utility, and Computational Efficiency through MUltistage Sampling Technique (MUST) [3.0939420223851446]
プライバシ・アンプリフィケーション(PA)のためのサブサンプリング手法のクラスを提案する。
本研究は2段階MUST法におけるPA効果と実用性について包括的に解析する。
MUSTの繰り返し適用に関するプライバシー損失構成分析を行う。
論文 参考訳(メタデータ) (2023-12-20T19:38:29Z) - PARL: A Unified Framework for Policy Alignment in Reinforcement Learning from Human Feedback [106.63518036538163]
我々は、強化学習におけるポリシーアライメントの最近強調された重要な問題に対処するために、新しい統合された二段階最適化ベースのフレームワーク、textsfPARLを提案する。
本フレームワークは, 上向きの目標(逆設計)の分布を, 下向きの最適変数で明示的にパラメータ化することにより, これらの問題に対処する。
その結果,提案したtextsfPARL が RL のアライメントの懸念に対処できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-03T18:03:44Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Stronger Privacy Amplification by Shuffling for R\'enyi and Approximate
Differential Privacy [43.33288245778629]
このモデルにおける重要な結果は、ランダムにランダム化されたデータをランダムにシャッフルすると、差分プライバシー保証が増幅されることである。
このような増幅は、匿名でデータが提供されるシステムにおいて、はるかに強力なプライバシー保証を意味する。
本研究では,理論的にも数値的にも,アートプライバシの増幅状態を改善する。
論文 参考訳(メタデータ) (2022-08-09T08:13:48Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Patch-level Neighborhood Interpolation: A General and Effective
Graph-based Regularization Strategy [77.34280933613226]
我々は、ネットワークの計算において非局所的な表現を行うtextbfPatch-level Neighborhood Interpolation(Pani)と呼ばれる一般的な正規化器を提案する。
提案手法は,異なる層にパッチレベルグラフを明示的に構築し,その近傍のパッチ特徴を線形に補間し,汎用的で効果的な正規化戦略として機能する。
論文 参考訳(メタデータ) (2019-11-21T06:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。