論文の概要: Learning from End User Data with Shuffled Differential Privacy over Kernel Densities
- arxiv url: http://arxiv.org/abs/2502.14087v1
- Date: Wed, 19 Feb 2025 20:27:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:27:37.798872
- Title: Learning from End User Data with Shuffled Differential Privacy over Kernel Densities
- Title(参考訳): カーネル密度によるシャッフル差分プライバシーを用いたエンドユーザーデータからの学習
- Authors: Tal Wagner,
- Abstract要約: エンドユーザに分散したプライベートデータから収集と学習を行う環境について検討する。
差分プライバシーのシャッフルモデルでは、エンドユーザーは共有する前に部分的にデータをローカルに保護する。
我々の主な技術的成果は、分散データセットのカーネル密度関数をプライベートに推定するシャッフルDPプロトコルである。
- 参考スコア(独自算出の注目度): 10.797515094684318
- License:
- Abstract: We study a setting of collecting and learning from private data distributed across end users. In the shuffled model of differential privacy, the end users partially protect their data locally before sharing it, and their data is also anonymized during its collection to enhance privacy. This model has recently become a prominent alternative to central DP, which requires full trust in a central data curator, and local DP, where fully local data protection takes a steep toll on downstream accuracy. Our main technical result is a shuffled DP protocol for privately estimating the kernel density function of a distributed dataset, with accuracy essentially matching central DP. We use it to privately learn a classifier from the end user data, by learning a private density function per class. Moreover, we show that the density function itself can recover the semantic content of its class, despite having been learned in the absence of any unprotected data. Our experiments show the favorable downstream performance of our approach, and highlight key downstream considerations and trade-offs in a practical ML deployment of shuffled DP.
- Abstract(参考訳): エンドユーザに分散したプライベートデータから収集と学習を行う環境について検討する。
差分プライバシーのシャッフルモデルでは、エンドユーザーは共有する前に部分的にデータをローカルに保護する。
このモデルは、最近、中央データキュレーターの完全信頼を必要とする中央DPと、完全にローカルなデータ保護が下流の精度に急激な負担を課すローカルDPに、顕著な代替手段となっている。
我々の主な技術的成果は、分散データセットのカーネル密度関数をプライベートに推定するシャッフルDPプロトコルであり、基本的には中央DPと一致する。
クラスごとのプライベート密度関数を学習することで、エンドユーザーデータから分類器をプライベートに学習する。
さらに, 保護されていないデータがない場合に学習したにもかかわらず, 密度関数自体がクラスの意味内容を回復できることを示す。
本実験は,本手法の下流性能を示すとともに,シャッフルDPの実践的ML展開において,下流の考察とトレードオフを強調した。
関連論文リスト
- Segmented Private Data Aggregation in the Multi-message Shuffle Model [9.298982907061099]
我々は、差分プライバシーのマルチメッセージシャッフルモデルにおいて、セグメント化されたプライベートデータアグリゲーションの研究を開拓した。
当社のフレームワークでは,ユーザに対するフレキシブルなプライバシ保護と,アグリゲーションサーバのための拡張ユーティリティを導入している。
提案手法は,既存手法と比較して推定誤差を約50%削減する。
論文 参考訳(メタデータ) (2024-07-29T01:46:44Z) - Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Preserving Privacy in Federated Learning with Ensemble Cross-Domain
Knowledge Distillation [22.151404603413752]
Federated Learning(FL)は、ローカルノードが中央モデルを協調的にトレーニングする機械学習パラダイムである。
既存のFLメソッドはモデルパラメータを共有したり、不均衡なデータ分散の問題に対処するために共蒸留を用いるのが一般的である。
我々は,一発のオフライン知識蒸留を用いたFLフレームワークにおいて,プライバシ保護と通信効率のよい手法を開発した。
論文 参考訳(メタデータ) (2022-09-10T05:20:31Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - TOHAN: A One-step Approach towards Few-shot Hypothesis Adaptation [73.75784418508033]
少数ショットドメイン適応(FDA)では、ターゲットドメインの分類器は、ソースドメイン(SD)内のラベル付きデータとターゲットドメイン(TD)内のラベル付きデータとで訓練される。
データは通常、現在の時代の個人情報(例えば、携帯電話に分散されたデータ)を含んでいる。
本稿では,その問題を解決するために,目標指向仮説適応ネットワーク(TOHAN)を提案する。
論文 参考訳(メタデータ) (2021-06-11T11:46:20Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Deconvoluting Kernel Density Estimation and Regression for Locally
Differentially Private Data [14.095523601311374]
ローカルな差分プライバシーは、機密性の高い個々のデータポイントを収集または公開するためのプライバシー文学のゴールドスタンダードとなっている。
しかし、局所的な差分データは、プライバシーを確保するために使われる付加ノイズのため、データの確率密度をゆがめることがある。
本研究では,スムースなカーネルを用いた密度推定手法を開発し,プライバシ保護ノイズの影響を除去する。
論文 参考訳(メタデータ) (2020-08-28T03:39:17Z) - LDP-FL: Practical Private Aggregation in Federated Learning with Local
Differential Privacy [20.95527613004989]
フェデレーション学習は、実際のデータではなく、局所的な勾配情報を収集するプライバシー保護のための一般的なアプローチである。
それまでの作業は3つの問題により現実的な解決には至らなかった。
最後に、ディープラーニングモデルにおける重みの高次元性により、プライバシー予算が爆発的に膨らみます。
論文 参考訳(メタデータ) (2020-07-31T01:08:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。