論文の概要: Oblivious Sampling Algorithms for Private Data Analysis
- arxiv url: http://arxiv.org/abs/2009.13689v1
- Date: Mon, 28 Sep 2020 23:45:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 22:50:22.091711
- Title: Oblivious Sampling Algorithms for Private Data Analysis
- Title(参考訳): 個人データ解析のための斜めサンプリングアルゴリズム
- Authors: Sajin Sasy and Olga Ohrimenko
- Abstract要約: データセットのサンプル上で実行されるクエリに基づいて,セキュアでプライバシ保護されたデータ解析について検討する。
信頼された実行環境(TEE)は、クエリ計算中にデータの内容を保護するために使用できる。
TEEsにおける差分プライベート(DP)クエリのサポートは、クエリ出力が明らかにされたときの記録プライバシを提供する。
- 参考スコア(独自算出の注目度): 10.990447273771592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study secure and privacy-preserving data analysis based on queries
executed on samples from a dataset. Trusted execution environments (TEEs) can
be used to protect the content of the data during query computation, while
supporting differential-private (DP) queries in TEEs provides record privacy
when query output is revealed. Support for sample-based queries is attractive
due to \emph{privacy amplification} since not all dataset is used to answer a
query but only a small subset. However, extracting data samples with TEEs while
proving strong DP guarantees is not trivial as secrecy of sample indices has to
be preserved. To this end, we design efficient secure variants of common
sampling algorithms. Experimentally we show that accuracy of models trained
with shuffling and sampling is the same for differentially private models for
MNIST and CIFAR-10, while sampling provides stronger privacy guarantees than
shuffling.
- Abstract(参考訳): データセットのサンプル上で実行されるクエリに基づいて,セキュアでプライバシ保護のデータを解析する。
信頼された実行環境(TEEs)は、クエリ計算中にデータの内容を保護するために使用できるが、TEEsにおける差分プライベート(DP)クエリのサポートは、クエリ出力が明らかにされたときに記録プライバシを提供する。
サンプルベースのクエリのサポートは,クエリに応答するためにすべてのデータセットを使用するのではなく,小さなサブセットのみを使用するため,‘emph{privacy amplification’によって魅力的なものだ。
しかし,強いDP保証を証明しながらTEEを用いてデータサンプルを抽出することは簡単ではない。
この目的のために、我々は一般的なサンプリングアルゴリズムの効率的な安全な変種を設計する。
MNISTとCIFAR-10の差分プライベートモデルでは,シャッフルとサンプリングで訓練したモデルの精度が同じであり,サンプリングはシャッフルよりも強いプライバシー保証を提供する。
関連論文リスト
- How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Benchmarking Private Population Data Release Mechanisms: Synthetic Data vs. TopDown [50.40020716418472]
本研究では、TopDownアルゴリズムとプライベート合成データ生成を比較し、クエリの複雑さによる精度への影響を判定する。
この結果から,TopDownアルゴリズムは,分散クエリに対して,評価したどの合成データ手法よりもはるかに優れたプライバシー-忠実トレードオフを実現することがわかった。
論文 参考訳(メタデータ) (2024-01-31T17:38:34Z) - Enhancing Trade-offs in Privacy, Utility, and Computational Efficiency through MUltistage Sampling Technique (MUST) [3.0939420223851446]
プライバシ・アンプリフィケーション(PA)のためのサブサンプリング手法のクラスを提案する。
本研究は2段階MUST法におけるPA効果と実用性について包括的に解析する。
MUSTの繰り返し適用に関するプライバシー損失構成分析を行う。
論文 参考訳(メタデータ) (2023-12-20T19:38:29Z) - DP-PQD: Privately Detecting Per-Query Gaps In Synthetic Data Generated By Black-Box Mechanisms [17.562365686511818]
本稿では,DP-PQDという新しいフレームワークを提案する。このフレームワークは,プライベートデータセットと合成データセットの問合せ回答が,ユーザの指定しきい値内にあるかどうかを検出する。
提案手法は,クエリごとのクエリ数,総和,中央値のクエリに対してプライベートアルゴリズム群を提供し,その特性を分析し,実験的に評価する。
論文 参考訳(メタデータ) (2023-09-15T17:38:59Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Privacy Amplification via Random Participation in Federated Learning [3.8580784887142774]
フェデレートされた環境では、クライアントのランダムな参加に加えて、ローカルデータセットのサブサンプリングも検討する。
ローカルデータセットのサイズが小さい場合には、ランダムな参加によるプライバシ保証が集中的な設定に近いことを示す。
論文 参考訳(メタデータ) (2022-05-03T15:11:34Z) - Uniformity Testing in the Shuffle Model: Simpler, Better, Faster [0.0]
均一性テスト(英: Uniformity testing)または独立した観察が均一に分散されているかどうかをテストすることは、分散テストにおける問題である。
本研究では,シャッフルモデルにおける既知の一様性試験アルゴリズムの解析を大幅に単純化する。
論文 参考訳(メタデータ) (2021-08-20T03:43:12Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Controlling Privacy Loss in Sampling Schemes: an Analysis of Stratified
and Cluster Sampling [23.256638764430516]
本研究では,プライバシ・アンプリフィケーションの結果を,より複雑でデータに依存したサンプリング・スキームに拡張する。
これらのサンプリングスキームは、しばしばプライバシの増幅に失敗するだけでなく、実際にはプライバシの劣化をもたらす可能性があることに気付きました。
論文 参考訳(メタデータ) (2020-07-24T17:43:08Z) - XOR Mixup: Privacy-Preserving Data Augmentation for One-Shot Federated
Learning [49.130350799077114]
我々は、XorMixupという、プライバシー保護のためのXORベースのミックスアップデータ拡張技術を開発した。
中心となる考え方は、各デバイスのデータサンプルのみを使用してデコードされた、他のデバイスのエンコードされたデータサンプルを収集することである。
XorMixFLは、非IID MNISTデータセットの下で、Vanilla FLよりも最大17.6%高い精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。