論文の概要: Controlling Privacy Loss in Sampling Schemes: an Analysis of Stratified
and Cluster Sampling
- arxiv url: http://arxiv.org/abs/2007.12674v2
- Date: Wed, 21 Jun 2023 22:54:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 18:30:43.557801
- Title: Controlling Privacy Loss in Sampling Schemes: an Analysis of Stratified
and Cluster Sampling
- Title(参考訳): サンプリング方式におけるプライバシロスの制御:階層化およびクラスタサンプリングの解析
- Authors: Mark Bun and J\"org Drechsler and Marco Gaboardi and Audra McMillan
and Jayshree Sarathy
- Abstract要約: 本研究では,プライバシ・アンプリフィケーションの結果を,より複雑でデータに依存したサンプリング・スキームに拡張する。
これらのサンプリングスキームは、しばしばプライバシの増幅に失敗するだけでなく、実際にはプライバシの劣化をもたらす可能性があることに気付きました。
- 参考スコア(独自算出の注目度): 23.256638764430516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sampling schemes are fundamental tools in statistics, survey design, and
algorithm design. A fundamental result in differential privacy is that a
differentially private mechanism run on a simple random sample of a population
provides stronger privacy guarantees than the same algorithm run on the entire
population. However, in practice, sampling designs are often more complex than
the simple, data-independent sampling schemes that are addressed in prior work.
In this work, we extend the study of privacy amplification results to more
complex, data-dependent sampling schemes. We find that not only do these
sampling schemes often fail to amplify privacy, they can actually result in
privacy degradation. We analyze the privacy implications of the pervasive
cluster sampling and stratified sampling paradigms, as well as provide some
insight into the study of more general sampling designs.
- Abstract(参考訳): サンプリングスキームは統計、サーベイデザイン、アルゴリズム設計における基本的なツールである。
ディファレンシャルプライバシの基本的な結果は、人口の単純なランダムなサンプル上で実行される差分プライベートなメカニズムは、人口全体で動作する同じアルゴリズムよりも強力なプライバシ保証を提供する。
しかし、実際には、サンプリング設計は、事前の作業で対処される単純なデータに依存しないサンプリングスキームよりも複雑であることが多い。
本研究では,プライバシ増幅結果の研究を,より複雑なデータ依存サンプリング方式に拡張する。
これらのサンプリングスキームは、しばしばプライバシーの強化に失敗するだけでなく、実際にはプライバシーの劣化をもたらす可能性がある。
広く普及するクラスタサンプリングと階層化されたサンプリングパラダイムのプライバシーへの影響を分析し、より一般的なサンプリング設計の研究に関する洞察を提供する。
関連論文リスト
- Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Personalized Privacy Amplification via Importance Sampling [2.1485350418225244]
重要サンプリングのプライバシー向上特性について検討する。
k平均クラスタリングの例を用いて,プライバシ,効率,重要度サンプリングの精度を評価した。
論文 参考訳(メタデータ) (2023-07-05T17:09:10Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Uniformity Testing in the Shuffle Model: Simpler, Better, Faster [0.0]
均一性テスト(英: Uniformity testing)または独立した観察が均一に分散されているかどうかをテストすることは、分散テストにおける問題である。
本研究では,シャッフルモデルにおける既知の一様性試験アルゴリズムの解析を大幅に単純化する。
論文 参考訳(メタデータ) (2021-08-20T03:43:12Z) - Renyi Differential Privacy of the Subsampled Shuffle Model in
Distributed Learning [7.197592390105457]
クライアントは、プライバシを必要とするサーバとのインタラクションを通じて、学習モデルを反復的に構築する分散学習フレームワークで、プライバシを研究する。
最適化とフェデレートラーニング(FL)パラダイムによって動機付けられ、各ラウンドで少数のデータサンプルがランダムにサブサンプリングされた場合に焦点を当てる。
より強力なローカルプライバシ保証を得るために,各クライアントがローカルディファレンシャル・プライベート(LDP)機構を用いて応答をランダム化するシャッフルプライバシ・モデルを用いてこれを検証した。
論文 参考訳(メタデータ) (2021-07-19T11:43:24Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Oblivious Sampling Algorithms for Private Data Analysis [10.990447273771592]
データセットのサンプル上で実行されるクエリに基づいて,セキュアでプライバシ保護されたデータ解析について検討する。
信頼された実行環境(TEE)は、クエリ計算中にデータの内容を保護するために使用できる。
TEEsにおける差分プライベート(DP)クエリのサポートは、クエリ出力が明らかにされたときの記録プライバシを提供する。
論文 参考訳(メタデータ) (2020-09-28T23:45:30Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。