論文の概要: Deconvoluting Kernel Density Estimation and Regression for Locally
Differentially Private Data
- arxiv url: http://arxiv.org/abs/2008.12466v2
- Date: Mon, 9 Nov 2020 03:32:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 02:05:44.927750
- Title: Deconvoluting Kernel Density Estimation and Regression for Locally
Differentially Private Data
- Title(参考訳): 局所微分プライベートデータに対するカーネル密度推定と回帰の解法
- Authors: Farhad Farokhi
- Abstract要約: ローカルな差分プライバシーは、機密性の高い個々のデータポイントを収集または公開するためのプライバシー文学のゴールドスタンダードとなっている。
しかし、局所的な差分データは、プライバシーを確保するために使われる付加ノイズのため、データの確率密度をゆがめることがある。
本研究では,スムースなカーネルを用いた密度推定手法を開発し,プライバシ保護ノイズの影響を除去する。
- 参考スコア(独自算出の注目度): 14.095523601311374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local differential privacy has become the gold-standard of privacy literature
for gathering or releasing sensitive individual data points in a
privacy-preserving manner. However, locally differential data can twist the
probability density of the data because of the additive noise used to ensure
privacy. In fact, the density of privacy-preserving data (no matter how many
samples we gather) is always flatter in comparison with the density function of
the original data points due to convolution with privacy-preserving noise
density function. The effect is especially more pronounced when using
slow-decaying privacy-preserving noises, such as the Laplace noise. This can
result in under/over-estimation of the heavy-hitters. This is an important
challenge facing social scientists due to the use of differential privacy in
the 2020 Census in the United States. In this paper, we develop density
estimation methods using smoothing kernels. We use the framework of
deconvoluting kernel density estimators to remove the effect of
privacy-preserving noise. This approach also allows us to adapt the results
from non-parameteric regression with errors-in-variables to develop regression
models based on locally differentially private data. We demonstrate the
performance of the developed methods on financial and demographic datasets.
- Abstract(参考訳): ローカルな差分プライバシーは、プライバシー保護の方法で機密性の高い個々のデータポイントを収集または公開するためのプライバシー文学のゴールドスタンダードとなっている。
しかし、局所微分データは、プライバシを確保するために使用される付加ノイズのためにデータの確率密度をゆがめることができる。
実際、プライバシ保存データの密度(収集したサンプル数にかかわらず)は、プライバシ保存ノイズ密度関数との畳み込みによる元のデータポイントの密度関数と比較して常に平坦である。
この効果は、ラプラスノイズのようなプライバシ保存ノイズが遅い場合に特に顕著である。
これはヘビーヒットを過大評価する可能性がある。
これは、米国の2020年国勢調査における差分プライバシーの使用により、社会科学者が直面する重要な課題である。
本稿では,スムージングカーネルを用いた密度推定手法を提案する。
我々は,プライバシ保存ノイズの影響を取り除くために,カーネル密度推定器をデコンボリュートする枠組みを用いる。
このアプローチにより,非パラメータ回帰の結果を可変変数で適用し,局所的な微分プライベートデータに基づく回帰モデルを構築することもできる。
本研究では,金融データおよび人口統計データを用いた開発手法の性能を示す。
関連論文リスト
- Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - RASE: Efficient Privacy-preserving Data Aggregation against Disclosure Attacks for IoTs [2.1765174838950494]
センサデバイスが生み出すデータを収集・保護する新たなパラダイムについて検討する。
データアグリゲーションとプライバシ保護の共同設計に関するこれまでの研究は、信頼されたフュージョンセンターがプライバシ体制に準拠していることを前提としている。
本稿では,3段階の逐次手順,雑音付加,ランダムな置換,パラメータ推定に一般化可能な新しいパラダイム(RASE)を提案する。
論文 参考訳(メタデータ) (2024-05-31T15:21:38Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Differentially Private Normalizing Flows for Privacy-Preserving Density
Estimation [10.561489862855334]
明示的な差分プライバシー保証を提供する正規化フローモデルの使用を提案します。
このアルゴリズムを差分プライベート異常検出のタスクにどのように適用できるかを示す。
論文 参考訳(メタデータ) (2021-03-25T18:39:51Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - A Differentially Private Text Perturbation Method Using a Regularized
Mahalanobis Metric [8.679020335206753]
プライバシを保存するテキスト分析の一般的なアプローチはノイズ注入であり、まずテキストデータを連続的な埋め込み空間にマッピングする。
本稿では,この問題を解決するために,マハラノビス計量の正規化変種を慎重に設計したテキスト摂動機構を提案する。
我々はこの指標に基づいてテキスト摂動アルゴリズムを提供し、そのプライバシー保証を正式に証明する。
論文 参考訳(メタデータ) (2020-10-22T23:06:44Z) - LDP-FL: Practical Private Aggregation in Federated Learning with Local
Differential Privacy [20.95527613004989]
フェデレーション学習は、実際のデータではなく、局所的な勾配情報を収集するプライバシー保護のための一般的なアプローチである。
それまでの作業は3つの問題により現実的な解決には至らなかった。
最後に、ディープラーニングモデルにおける重みの高次元性により、プライバシー予算が爆発的に膨らみます。
論文 参考訳(メタデータ) (2020-07-31T01:08:57Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。