論文の概要: Learning Differentially Private Probabilistic Models for
Privacy-Preserving Image Generation
- arxiv url: http://arxiv.org/abs/2305.10662v1
- Date: Thu, 18 May 2023 02:51:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 17:21:46.917033
- Title: Learning Differentially Private Probabilistic Models for
Privacy-Preserving Image Generation
- Title(参考訳): プライバシー保護画像生成のための微分プライベート確率モデル学習
- Authors: Bochao Liu, Shiming Ge, Pengju Wang, Liansheng Zhuang and Tongliang
Liu
- Abstract要約: 差分プライバシー保証付き高解像度画像を生成するために,差分プライベート確率モデルの学習を提案する。
我々のアプローチは、目立った視覚的品質とデータユーティリティで256x256までの画像を生成することができる。
- 参考スコア(独自算出の注目度): 67.47979276739144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A number of deep models trained on high-quality and valuable images have been
deployed in practical applications, which may pose a leakage risk of data
privacy. Learning differentially private generative models can sidestep this
challenge through indirect data access. However, such differentially private
generative models learned by existing approaches can only generate images with
a low-resolution of less than 128x128, hindering the widespread usage of
generated images in downstream training. In this work, we propose learning
differentially private probabilistic models (DPPM) to generate high-resolution
images with differential privacy guarantee. In particular, we first train a
model to fit the distribution of the training data and make it satisfy
differential privacy by performing a randomized response mechanism during
training process. Then we perform Hamiltonian dynamics sampling along with the
differentially private movement direction predicted by the trained
probabilistic model to obtain the privacy-preserving images. In this way, it is
possible to apply these images to different downstream tasks while protecting
private information. Notably, compared to other state-of-the-art differentially
private generative approaches, our approach can generate images up to 256x256
with remarkable visual quality and data utility. Extensive experiments show the
effectiveness of our approach.
- Abstract(参考訳): 高品質で貴重なイメージでトレーニングされた多くの深層モデルが実用的なアプリケーションにデプロイされているため、データのプライバシの漏洩リスクが発生する可能性がある。
微分的にプライベートな生成モデルを学ぶことは、間接データアクセスを通じてこの課題を回避できる。
しかし、既存の手法によって学習されたそのような微分プライベートな生成モデルは、128x128未満の低解像度の画像しか生成できないため、下流トレーニングにおいて生成された画像が広く使用されるのを妨げている。
本研究では、差分プライバシー保証付き高解像度画像を生成するために、差分プライベート確率モデル(DPPM)の学習を提案する。
特に,トレーニング中にランダム化された応答機構を実行して,トレーニングデータの分布に適合するようにモデルをトレーニングし,差分プライバシを満足させる。
次に,訓練された確率モデルによって予測される微分プライベート移動方向とともに,ハミルトニアンダイナミクスサンプリングを行い,プライバシー保存画像を得る。
このようにして、プライベート情報を保護しながら、異なる下流タスクにこれらの画像を適用することができる。
特に、他の最先端の微分プライベートな生成アプローチと比較して、我々のアプローチは、目立った視覚的品質とデータユーティリティを持つ256x256の画像を生成することができる。
広範な実験が我々のアプローチの有効性を示している。
関連論文リスト
- Differentially Private Gradient Flow based on the Sliced Wasserstein
Distance for Non-Parametric Generative Modeling [61.65137699747604]
確率測度空間におけるパラメータフリー勾配流に基づく、新しい微分プライベートな生成モデリング手法を提案する。
提案手法は,ジェネレータベースモデルと比較して,低プライバシー予算で高忠実度データを生成可能であることを示す。
論文 参考訳(メタデータ) (2023-12-13T15:47:30Z) - Differentially Private Synthetic Data Generation via
Lipschitz-Regularised Variational Autoencoders [3.7463972693041274]
生成モデルが個々のトレーニング記録の多くの詳細を記憶する傾向があることは、しばしば見落とされがちである。
本稿では,生成モデルにおける本質を直接活用するデータ生成手法について検討する。
論文 参考訳(メタデータ) (2023-04-22T07:24:56Z) - Extracting Training Data from Diffusion Models [77.11719063152027]
拡散モデルはトレーニングデータから個々の画像を記憶し,生成時に出力することを示す。
生成とフィルタのパイプラインを用いて、最先端のモデルから数千以上のトレーニング例を抽出する。
さまざまな設定で何百もの拡散モデルをトレーニングし、モデリングとデータ決定の違いがプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-30T18:53:09Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - On the utility and protection of optimization with differential privacy
and classic regularization techniques [9.413131350284083]
本稿では,標準最適化手法に対するDP-SGDアルゴリズムの有効性について検討する。
我々は、差分プライバシーの欠陥と限界について議論し、ドロップアウトとl2-規則化のプライバシー保護特性がしばしば優れていることを実証した。
論文 参考訳(メタデータ) (2022-09-07T14:10:21Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - DPlis: Boosting Utility of Differentially Private Deep Learning via
Randomized Smoothing [0.0]
DPlis--Differentially Private Learning wIth Smoothingを提案します。
DPlisは,プライバシ予算の下でモデル品質とトレーニングの安定性を効果的に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-03-02T06:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。