論文の概要: Learning Differentially Private Probabilistic Models for
Privacy-Preserving Image Generation
- arxiv url: http://arxiv.org/abs/2305.10662v1
- Date: Thu, 18 May 2023 02:51:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 17:21:46.917033
- Title: Learning Differentially Private Probabilistic Models for
Privacy-Preserving Image Generation
- Title(参考訳): プライバシー保護画像生成のための微分プライベート確率モデル学習
- Authors: Bochao Liu, Shiming Ge, Pengju Wang, Liansheng Zhuang and Tongliang
Liu
- Abstract要約: 差分プライバシー保証付き高解像度画像を生成するために,差分プライベート確率モデルの学習を提案する。
我々のアプローチは、目立った視覚的品質とデータユーティリティで256x256までの画像を生成することができる。
- 参考スコア(独自算出の注目度): 67.47979276739144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A number of deep models trained on high-quality and valuable images have been
deployed in practical applications, which may pose a leakage risk of data
privacy. Learning differentially private generative models can sidestep this
challenge through indirect data access. However, such differentially private
generative models learned by existing approaches can only generate images with
a low-resolution of less than 128x128, hindering the widespread usage of
generated images in downstream training. In this work, we propose learning
differentially private probabilistic models (DPPM) to generate high-resolution
images with differential privacy guarantee. In particular, we first train a
model to fit the distribution of the training data and make it satisfy
differential privacy by performing a randomized response mechanism during
training process. Then we perform Hamiltonian dynamics sampling along with the
differentially private movement direction predicted by the trained
probabilistic model to obtain the privacy-preserving images. In this way, it is
possible to apply these images to different downstream tasks while protecting
private information. Notably, compared to other state-of-the-art differentially
private generative approaches, our approach can generate images up to 256x256
with remarkable visual quality and data utility. Extensive experiments show the
effectiveness of our approach.
- Abstract(参考訳): 高品質で貴重なイメージでトレーニングされた多くの深層モデルが実用的なアプリケーションにデプロイされているため、データのプライバシの漏洩リスクが発生する可能性がある。
微分的にプライベートな生成モデルを学ぶことは、間接データアクセスを通じてこの課題を回避できる。
しかし、既存の手法によって学習されたそのような微分プライベートな生成モデルは、128x128未満の低解像度の画像しか生成できないため、下流トレーニングにおいて生成された画像が広く使用されるのを妨げている。
本研究では、差分プライバシー保証付き高解像度画像を生成するために、差分プライベート確率モデル(DPPM)の学習を提案する。
特に,トレーニング中にランダム化された応答機構を実行して,トレーニングデータの分布に適合するようにモデルをトレーニングし,差分プライバシを満足させる。
次に,訓練された確率モデルによって予測される微分プライベート移動方向とともに,ハミルトニアンダイナミクスサンプリングを行い,プライバシー保存画像を得る。
このようにして、プライベート情報を保護しながら、異なる下流タスクにこれらの画像を適用することができる。
特に、他の最先端の微分プライベートな生成アプローチと比較して、我々のアプローチは、目立った視覚的品質とデータユーティリティを持つ256x256の画像を生成することができる。
広範な実験が我々のアプローチの有効性を示している。
関連論文リスト
- Synthetic Face Datasets Generation via Latent Space Exploration from Brownian Identity Diffusion [20.352548473293993]
顔認識(FR)モデルは、プライバシと倫理的懸念のある大規模データセットでトレーニングされている。
近年,FRモデルのトレーニングのために,合成データを用いて真のデータを補完あるいは置き換えることが提案されている。
ブラウン力を受ける軟質粒子の物理運動にインスパイアされた新しい手法を導入し, 様々な制約の下で潜在空間の正体をサンプリングする。
これを使って、いくつかの顔データセットを生成し、FRモデルをトレーニングすることでそれらをベンチマークし、我々のメソッドで生成されたデータは、以前のGANベースのデータセットのパフォーマンスを超え、現状と競合するパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-04-30T22:32:02Z) - Towards Learning Stochastic Population Models by Gradient Descent [0.0]
パラメータと構造を同時に推定することで,最適化手法に大きな課題が生じることを示す。
モデルの正確な推定を実証するが、擬似的、解釈可能なモデルの推論を強制することは、難易度を劇的に高める。
論文 参考訳(メタデータ) (2024-04-10T14:38:58Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - Network Generation with Differential Privacy [4.297070083645049]
我々は、プライベート情報を含む実世界のグラフのプライベートな合成版を生成する問題について考察する。
本稿では,エッジ差分プライバシーを維持しつつ,実世界のネットワーク特性を再現できる生成モデルを提案する。
論文 参考訳(メタデータ) (2021-11-17T13:07:09Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Data from Model: Extracting Data from Non-robust and Robust Models [83.60161052867534]
この研究は、データとモデルの関係を明らかにするために、モデルからデータを生成する逆プロセスについて検討する。
本稿では,データ・トゥ・モデル(DtM)とデータ・トゥ・モデル(DfM)を連続的に処理し,特徴マッピング情報の喪失について検討する。
以上の結果から,DtMとDfMの複数シーケンスの後にも,特にロバストモデルにおいて精度低下が制限されることが示唆された。
論文 参考訳(メタデータ) (2020-07-13T05:27:48Z) - Predicting Multidimensional Data via Tensor Learning [0.0]
本研究では,本データセットの内在的多次元構造を保持するモデルを開発する。
モデルパラメータを推定するために、オルタネート・リースト・スクエアスアルゴリズムを開発した。
提案モデルは,予測文献に存在するベンチマークモデルより優れている。
論文 参考訳(メタデータ) (2020-02-11T11:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。