論文の概要: Differentially Private Data Generation Needs Better Features
- arxiv url: http://arxiv.org/abs/2205.12900v1
- Date: Wed, 25 May 2022 16:46:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 14:03:30.851337
- Title: Differentially Private Data Generation Needs Better Features
- Title(参考訳): プライベートなデータ生成にはより良い機能が必要だ
- Authors: Fredrik Harder and Milad Jalali Asadabadi and Danica J. Sutherland and
Mijung Park
- Abstract要約: 差分降下勾配(DP-SGD)を用いた中等度生成モデルの訓練も困難である。
代わりに、パブリックデータに適切な関連性のある表現を構築し、"トランスファーラーニング"のためにのみプライベートデータを使用することを推奨します。
私たちの研究は、プライベートと非プライベートの深層生成モデルの間のギャップを減らすための、シンプルで強力な基盤を導入しています。
- 参考スコア(独自算出の注目度): 8.659595986100738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training even moderately-sized generative models with differentially-private
stochastic gradient descent (DP-SGD) is difficult: the required level of noise
for reasonable levels of privacy is simply too large. We advocate instead
building off a good, relevant representation on public data, then using private
data only for "transfer learning." In particular, we minimize the maximum mean
discrepancy (MMD) between private target data and the generated distribution,
using a kernel based on perceptual features from a public dataset. With the
MMD, we can simply privatize the data-dependent term once and for all, rather
than introducing noise at each step of optimization as in DP-SGD. Our algorithm
allows us to generate CIFAR10-level images faithfully with $\varepsilon \approx
2$, far surpassing the current state of the art, which only models MNIST and
FashionMNIST at $\varepsilon \approx 10$. Our work introduces simple yet
powerful foundations for reducing the gap between private and non-private deep
generative models.
- Abstract(参考訳): 偏極性確率勾配勾配勾配(DP-SGD)を持つ中等度サイズの生成モデルの訓練は困難であり、適切なプライバシーレベルに必要なノイズレベルは、単に大きすぎる。
代わりに、パブリックデータに適切な表現を構築し、その後、プライベートデータのみを"転送学習"に使用することを推奨する。
特に、公開データセットの知覚的特徴に基づくカーネルを用いて、プライベートターゲットデータと生成された分布間の最大平均誤差(MMD)を最小化する。
mmdでは、dp-sgdのように最適化の各ステップにノイズを導入するのではなく、データ依存の用語を何度でも民営化することができる。
我々のアルゴリズムはCIFAR10レベルの画像を$\varepsilon \approx 2$で忠実に生成し、MNISTとFashionMNISTを$\varepsilon \approx 10$でモデル化する。
我々の研究は、プライベートと非プライベートの深層生成モデルの間のギャップを減らすためのシンプルで強力な基盤を導入しました。
関連論文リスト
- Private Fine-tuning of Large Language Models with Zeroth-order Optimization [51.19403058739522]
差分的プライベート勾配降下(DP-SGD)により、モデルはプライバシ保護の方法でトレーニングできる。
DP-ZO(DP-ZO)は,ゼロオーダー最適化手法を民営化することで,大規模言語モデルのためのプライベートな微調整フレームワークである。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - Learning to Generate Image Embeddings with User-level Differential
Privacy [31.797461992234457]
DP-FedEmbは、ユーザ毎の感度制御とノイズ付加を備えたフェデレーション学習アルゴリズムの一種である。
数百万のユーザがトレーニングに参加可能な場合,ユーティリティの低下を5%以内でコントロールしながら,強力なユーザレベルのDP保証を$epsilon4$で実現できることを示す。
論文 参考訳(メタデータ) (2022-11-20T01:59:37Z) - TAN Without a Burn: Scaling Laws of DP-SGD [70.7364032297978]
近年、ディープニューラルネットワーク(DNN)を訓練するための微分プライベートな手法が進歩している。
プライバシ分析とノイズのあるトレーニングの実験的振る舞いを分離し、最小限の計算要件でトレードオフを探索する。
我々は,提案手法をCIFAR-10とImageNetに適用し,特にImageNetの最先端性を,上位1点の精度で向上させる。
論文 参考訳(メタデータ) (2022-10-07T08:44:35Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。