論文の概要: Improving Statistical Privacy by Subsampling
- arxiv url: http://arxiv.org/abs/2504.11429v1
- Date: Tue, 15 Apr 2025 17:40:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-23 23:02:37.043837
- Title: Improving Statistical Privacy by Subsampling
- Title(参考訳): サブサンプリングによる統計的プライバシーの改善
- Authors: Dennis Breutigam, Rüdiger Reischuk,
- Abstract要約: プライバシメカニズムとしてよく使われるのは、クエリに応答するデータのサンプルを取得することだ。
本論文は, 統計的条件下で, サンプリング方法の違いが, プライバシを増加させるかどうかを, 正確に検証する。
DP設定のトレードオフ関数は (epsilon,delta)-pairs よりもプライバシーの指標として提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy (DP) considers a scenario, where an adversary has almost complete information about the entries of a database This worst-case assumption is likely to overestimate the privacy thread for an individual in real life. Statistical privacy (SP) denotes a setting where only the distribution of the database entries is known to an adversary, but not their exact values. In this case one has to analyze the interaction between noiseless privacy based on the entropy of distributions and privacy mechanisms that distort the answers of queries, which can be quite complex. A privacy mechanism often used is to take samples of the data for answering a query. This paper proves precise bounds how much different methods of sampling increase privacy in the statistical setting with respect to database size and sampling rate. They allow us to deduce when and how much sampling provides an improvement and how far this depends on the privacy parameter {\epsilon}. To perform these investigations we develop a framework to model sampling techniques. For the DP setting tradeoff functions have been proposed as a finer measure for privacy compared to ({\epsilon},{\delta})-pairs. We apply these tools to statistical privacy with subsampling to get a comparable characterization
- Abstract(参考訳): 差別化プライバシ(DP)は、データベースのエントリに関するほぼ完全な情報を持つ敵が、現実の個人のプライバシスレッドを過大評価するシナリオだと考えている。
統計的プライバシ(英: Statistical privacy、SP)とは、データベースのエントリの分布のみが敵に知られ、正確な値ではない設定である。
この場合、分散のエントロピーと、クエリの回答を歪ませるプライバシーメカニズムに基づいて、ノイズレスプライバシ間の相互作用を分析する必要がある。
プライバシメカニズムとしてよく使われるのは、クエリに応答するデータのサンプルを取得することだ。
本稿では, データベースのサイズやサンプリング率に関して, 統計的設定において, どの程度の異なるサンプリング方法がプライバシを増加させるかを, 正確に検証する。
それによって、いつ、どのくらいのサンプリングが改善をもたらすか、それがどの程度プライバシパラメータ(epsilon)に依存しているかを推測することができます。
これらの調査を行うために,サンプリング手法をモデル化する枠組みを開発した。
DP設定のトレードオフ関数は、({\epsilon,{\delta})ペアに比べて、プライバシの細かい尺度として提案されている。
我々はこれらのツールをサブサンプリングによる統計的プライバシーに適用し、同等の特徴を得る
関連論文リスト
- Statistical Privacy [0.0]
本稿では,データベース生成時の分布を敵が把握している状況について考察する。
分布のエントロピーが、プロパティクエリと呼ばれる大規模なクエリのプライバシを如何に保証しているかを詳細に分析する。
論文 参考訳(メタデータ) (2025-01-22T14:13:44Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Benchmarking Private Population Data Release Mechanisms: Synthetic Data vs. TopDown [50.40020716418472]
本研究では、TopDownアルゴリズムとプライベート合成データ生成を比較し、クエリの複雑さによる精度への影響を判定する。
この結果から,TopDownアルゴリズムは,分散クエリに対して,評価したどの合成データ手法よりもはるかに優れたプライバシー-忠実トレードオフを実現することがわかった。
論文 参考訳(メタデータ) (2024-01-31T17:38:34Z) - Personalized Privacy Amplification via Importance Sampling [3.0636509793595548]
本稿では,個別化されたプライバシ分析に着目し,重要サンプリングのプライバシ特性について検討する。
重要なサンプリングでは、プライバシはユーティリティとよく一致しているが、サンプルサイズとは相容れないことが分かっています。
本稿では,プライバシと効率のトレードオフを最適化する手法と,コアセット形式の実用性保証に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T17:09:10Z) - Probing the Transition to Dataset-Level Privacy in ML Models Using an
Output-Specific and Data-Resolved Privacy Profile [23.05994842923702]
差分プライバシーメカニズムを用いてデータセットでトレーニングされたモデルが、近隣のデータセットでトレーニングされた結果の分布によってカバーされる範囲を定量化するプライバシー指標について検討する。
プライバシプロファイルは、近隣のディストリビューションで発生する不明瞭性への観察された遷移を、$epsilon$の減少として調査するために使用できることを示す。
論文 参考訳(メタデータ) (2023-06-27T20:39:07Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Oblivious Sampling Algorithms for Private Data Analysis [10.990447273771592]
データセットのサンプル上で実行されるクエリに基づいて,セキュアでプライバシ保護されたデータ解析について検討する。
信頼された実行環境(TEE)は、クエリ計算中にデータの内容を保護するために使用できる。
TEEsにおける差分プライベート(DP)クエリのサポートは、クエリ出力が明らかにされたときの記録プライバシを提供する。
論文 参考訳(メタデータ) (2020-09-28T23:45:30Z) - Controlling Privacy Loss in Sampling Schemes: an Analysis of Stratified
and Cluster Sampling [23.256638764430516]
本研究では,プライバシ・アンプリフィケーションの結果を,より複雑でデータに依存したサンプリング・スキームに拡張する。
これらのサンプリングスキームは、しばしばプライバシの増幅に失敗するだけでなく、実際にはプライバシの劣化をもたらす可能性があることに気付きました。
論文 参考訳(メタデータ) (2020-07-24T17:43:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。