論文の概要: Controlling Privacy Loss in Survey Sampling (Working Paper)
- arxiv url: http://arxiv.org/abs/2007.12674v1
- Date: Fri, 24 Jul 2020 17:43:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 07:21:08.632128
- Title: Controlling Privacy Loss in Survey Sampling (Working Paper)
- Title(参考訳): 調査サンプリングにおけるプライバシ損失の制御(作業論文)
- Authors: Mark Bun and J\"org Drechsler and Marco Gaboardi and Audra McMillan
- Abstract要約: クラスタサンプリングや階層化サンプリングなど,より複雑なサンプリングスキームのプライバシーへの影響について検討する。
これらのスキームがプライバシーを増幅するだけでなく、プライバシーが劣化する可能性があることが分かっています。
- 参考スコア(独自算出の注目度): 25.406207104603027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social science and economics research is often based on data collected in
surveys. Due to time and budgetary constraints, this data is often collected
using complex sampling schemes designed to increase accuracy while reducing the
costs of data collection. A commonly held belief is that the sampling process
affords the data subjects some additional privacy. This intuition has been
formalized in the differential privacy literature for simple random sampling: a
differentially private mechanism run on a simple random subsample of a
population provides higher privacy guarantees than when run on the entire
population. In this work we initiate the study of the privacy implications of
more complicated sampling schemes including cluster sampling and stratified
sampling. We find that not only do these schemes often not amplify privacy, but
that they can result in privacy degradation.
- Abstract(参考訳): 社会科学と経済学の研究は、しばしば調査で収集されたデータに基づいている。
時間的制約と予算的制約のため、このデータはデータ収集のコストを削減しつつ精度を向上させるように設計された複雑なサンプリングスキームを使用して収集されることが多い。
一般的に信じられている信念は、サンプリングプロセスはデータの対象にさらなるプライバシーを与えるというものである。
この直感は、単純なランダムサンプリングのために差分プライバシー文学において形式化されている: 人口の単純なランダムサブサンプル上で実行される差分プライベートメカニズムは、全人口で実行される場合よりも高いプライバシー保証を提供する。
本研究では,クラスタサンプリングや階層化サンプリングなど,より複雑なサンプリング方式のプライバシに関する調査を開始する。
これらのスキームがプライバシーを増幅するだけでなく、プライバシーが劣化する可能性があることが分かっています。
関連論文リスト
- Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Personalized Privacy Amplification via Importance Sampling [2.1485350418225244]
重要サンプリングのプライバシー向上特性について検討する。
k平均クラスタリングの例を用いて,プライバシ,効率,重要度サンプリングの精度を評価した。
論文 参考訳(メタデータ) (2023-07-05T17:09:10Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Uniformity Testing in the Shuffle Model: Simpler, Better, Faster [0.0]
均一性テスト(英: Uniformity testing)または独立した観察が均一に分散されているかどうかをテストすることは、分散テストにおける問題である。
本研究では,シャッフルモデルにおける既知の一様性試験アルゴリズムの解析を大幅に単純化する。
論文 参考訳(メタデータ) (2021-08-20T03:43:12Z) - Renyi Differential Privacy of the Subsampled Shuffle Model in
Distributed Learning [7.197592390105457]
クライアントは、プライバシを必要とするサーバとのインタラクションを通じて、学習モデルを反復的に構築する分散学習フレームワークで、プライバシを研究する。
最適化とフェデレートラーニング(FL)パラダイムによって動機付けられ、各ラウンドで少数のデータサンプルがランダムにサブサンプリングされた場合に焦点を当てる。
より強力なローカルプライバシ保証を得るために,各クライアントがローカルディファレンシャル・プライベート(LDP)機構を用いて応答をランダム化するシャッフルプライバシ・モデルを用いてこれを検証した。
論文 参考訳(メタデータ) (2021-07-19T11:43:24Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Oblivious Sampling Algorithms for Private Data Analysis [10.990447273771592]
データセットのサンプル上で実行されるクエリに基づいて,セキュアでプライバシ保護されたデータ解析について検討する。
信頼された実行環境(TEE)は、クエリ計算中にデータの内容を保護するために使用できる。
TEEsにおける差分プライベート(DP)クエリのサポートは、クエリ出力が明らかにされたときの記録プライバシを提供する。
論文 参考訳(メタデータ) (2020-09-28T23:45:30Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。