論文の概要: Privacy-Aware Rejection Sampling
- arxiv url: http://arxiv.org/abs/2108.00965v2
- Date: Thu, 29 Sep 2022 12:11:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 03:10:49.192134
- Title: Privacy-Aware Rejection Sampling
- Title(参考訳): プライバシ対応リジェクションサンプリング
- Authors: Jordan Awan and Vinayak Rao
- Abstract要約: 我々は、$(epsilon,delta)$-DPと$f$-DPの両方の観点から、拒絶サンプリングの実行による追加のプライバシーコストを特徴付ける。
適応型拒絶検体でも同様にプライバシーが低下していることが示される。
- 参考スコア(独自算出の注目度): 6.497816402045099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy (DP) offers strong theoretical privacy guarantees, but
implementations of DP mechanisms may be vulnerable to side-channel attacks,
such as timing attacks. When sampling methods such as MCMC or rejection
sampling are used to implement a mechanism, the runtime can leak private
information. We characterize the additional privacy cost due to the runtime of
a rejection sampler in terms of both $(\epsilon,\delta)$-DP as well as $f$-DP.
We also show that unless the acceptance probability is constant across
databases, the runtime of a rejection sampler does not satisfy $\epsilon$-DP
for any $\epsilon$. We show that there is a similar breakdown in privacy with
adaptive rejection samplers. We propose three modifications to the rejection
sampling algorithm, with varying assumptions, to protect against timing attacks
by making the runtime independent of the data. The modification with the
weakest assumptions is an approximate sampler, introducing a small increase in
the privacy cost, whereas the other modifications give perfect samplers. We
also use our techniques to develop an adaptive rejection sampler for
log-H\"{o}lder densities, which also has data-independent runtime. We give
several examples of DP mechanisms that fit the assumptions of our methods and
can thus be implemented using our samplers.
- Abstract(参考訳): 差分プライバシー(DP)は強力な理論的プライバシー保証を提供するが、DP機構の実装はタイミング攻撃のようなサイドチャネル攻撃に弱い可能性がある。
MCMCやリジェクションサンプリングのようなサンプリング手法を用いてメカニズムを実装する場合、ランタイムはプライベート情報を漏洩することができる。
我々は、$(\epsilon,\delta)$-DPと$f$-DPの両方の観点から、拒絶サンプリングの実行による追加のプライバシーコストを特徴付ける。
また、データベース間で受容確率が一定でない限り、拒絶サンプリングのランタイムは$\epsilon$-DPを任意の$\epsilon$に対して満たさないことを示す。
適応型拒絶検体でも同様にプライバシーが低下していることが示される。
本稿では,データから独立した実行環境にすることでタイミング攻撃を防止するため,様々な仮定で,拒絶サンプリングアルゴリズムの3つの修正を提案する。
最も弱い仮定による修正は近似的なサンプリングであり、プライバシコストがわずかに増加する一方、他の修正は完璧なサンプルを提供する。
また,データ非依存型ランタイムであるlog-H\"{o}lder 密度に対する適応型リジェクションサンプリングの開発にも本手法を用いた。
我々は,提案手法の仮定に適合するdp機構のいくつかの例を示す。
関連論文リスト
- Scalable DP-SGD: Shuffling vs. Poisson Subsampling [61.19794019914523]
バッチサンプリングをシャッフルしたマルチエポック適応線形クエリ(ABLQ)機構のプライバシ保証に対する新たな下位境界を提供する。
ポアソンのサブサンプリングと比較すると大きな差がみられ, 以前の分析は1つのエポックに限られていた。
本稿では,大規模な並列計算を用いて,Poissonサブサンプリングを大規模に実装する実践的手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T19:06:16Z) - Benchmarking Secure Sampling Protocols for Differential Privacy [3.0325535716232404]
微分プライバシ(DP)の2つのよく知られたモデルは、中心モデルと局所モデルである。
近年,分散環境でのセキュアマルチパーティ計算(MPC)によるDPの実現が提案されている。
論文 参考訳(メタデータ) (2024-09-16T19:04:47Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Differentially Private Statistical Inference through $\beta$-Divergence
One Posterior Sampling [2.8544822698499255]
本稿では,モデルとデータ生成プロセス間の$beta$-divergenceの最小化を目標とした,一般化後部からの後部サンプリング手法を提案する。
これにより、基礎となるモデルの変更を必要とせずに、一般的に適用可能なプライベートな推定が可能になる。
我々は、$beta$D-Bayesが同一のプライバシー保証に対してより正確な推測を行うことを示す。
論文 参考訳(メタデータ) (2023-07-11T12:00:15Z) - Probing the Transition to Dataset-Level Privacy in ML Models Using an
Output-Specific and Data-Resolved Privacy Profile [23.05994842923702]
差分プライバシーメカニズムを用いてデータセットでトレーニングされたモデルが、近隣のデータセットでトレーニングされた結果の分布によってカバーされる範囲を定量化するプライバシー指標について検討する。
プライバシプロファイルは、近隣のディストリビューションで発生する不明瞭性への観察された遷移を、$epsilon$の減少として調査するために使用できることを示す。
論文 参考訳(メタデータ) (2023-06-27T20:39:07Z) - Simulation-based, Finite-sample Inference for Privatized Data [14.218697973204065]
本稿では,統計的に有効な信頼区間と仮説テストを生成するためのシミュレーションベースの"repro sample"手法を提案する。
本手法は様々な個人推論問題に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-03-09T15:19:31Z) - Preconditioned Score-based Generative Models [49.88840603798831]
直感的な加速度法はサンプリングの繰り返しを減らし、しかしながら重大な性能劣化を引き起こす。
本稿では,行列プレコンディショニングを利用したモデル非依存型bfem事前条件拡散サンプリング(PDS)手法を提案する。
PDSは、バニラSGMのサンプリングプロセスを限界余剰計算コストで変更し、モデルの再訓練を行わない。
論文 参考訳(メタデータ) (2023-02-13T16:30:53Z) - Nonparametric extensions of randomized response for private confidence sets [51.75485869914048]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。