論文の概要: Large-Scale Public Data Improves Differentially Private Image Generation
Quality
- arxiv url: http://arxiv.org/abs/2309.00008v1
- Date: Fri, 4 Aug 2023 06:03:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-10 03:55:13.906128
- Title: Large-Scale Public Data Improves Differentially Private Image Generation
Quality
- Title(参考訳): 大規模公開データによる差分プライベート画像生成の品質向上
- Authors: Ruihan Wu, Chuan Guo, Kamalika Chaudhuri
- Abstract要約: GAN(Generative Adversarial Networks)における大規模公開データを用いた差分プライベート画像生成の質向上について検討する。
提案手法は,公開データ配信の支持が民間の支持を含んでいることを前提として機能する。
詳細な評価結果から,本手法は,公開データを用いた既存手法と比較して,FIDスコアなどの指標でSOTAを達成できることが示唆された。
- 参考スコア(独自算出の注目度): 44.086660168292354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Public data has been frequently used to improve the privacy-accuracy
trade-off of differentially private machine learning, but prior work largely
assumes that this data come from the same distribution as the private. In this
work, we look at how to use generic large-scale public data to improve the
quality of differentially private image generation in Generative Adversarial
Networks (GANs), and provide an improved method that uses public data
effectively. Our method works under the assumption that the support of the
public data distribution contains the support of the private; an example of
this is when the public data come from a general-purpose internet-scale image
source, while the private data consist of images of a specific type. Detailed
evaluations show that our method achieves SOTA in terms of FID score and other
metrics compared with existing methods that use public data, and can generate
high-quality, photo-realistic images in a differentially private manner.
- Abstract(参考訳): パブリックデータは、微分プライベート機械学習のプライバシーと精度のトレードオフを改善するために頻繁に使用されるが、以前の研究では、このデータはプライベートと同じ分布から来ていると推定されていた。
本研究では,汎用的な大規模公開データを用いてGAN(Generative Adversarial Networks)における差分プライベート画像生成の品質を向上させる方法について検討し,公開データを効果的に活用する手法を提案する。
提案手法は, 一般向けインターネット規模の画像ソースから公開データを得る場合や, 特定のタイプの画像からなる場合などにおいて, パブリックデータ配信のサポートがプライベートのサポートを含んでいるという仮定の下で機能する。
詳細な評価結果から,本手法は,公開データを用いた既存手法と比較して,FIDスコアなどの指標を用いてSOTAを達成し,高画質のフォトリアリスティック画像を生成することができることがわかった。
関連論文リスト
- On the Benefits of Public Representations for Private Transfer Learning under Distribution Shift [40.553022057469285]
一般のプレトレーニングは、プライベートトレーニングをスクラッチから最大67%改善できることを示す。
この現象の理論的説明として、公開データとプライベートデータが低次元表現を共有している場合、公開表現は、プライベートトレーニングのサンプルの複雑さを改善することができることを示す。
論文 参考訳(メタデータ) (2023-12-24T21:46:14Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Self-Supervised Pretraining for Differentially Private Learning [5.3358356207700055]
自己教師付き事前学習(SSP)は、差分プライバシー(DP)を用いたディープラーニングのためのスケーラブルなソリューションである
我々は,SSPが生成する特徴を1つの画像だけに示すことで,同一のプライバシー予算下での非学習手作り機能よりも,プライベートな分類器がはるかに優れた実用性を得ることができることを示す。
論文 参考訳(メタデータ) (2022-06-14T19:30:23Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Distribution-Invariant Differential Privacy [4.700764053354502]
本研究では,高い統計的精度と厳密な差分プライバシーを両立する分布不変民営化法(DIP)を提案する。
同じ厳密なプライバシー保護の下で、DIPは2つのシミュレーションと3つの実世界のベンチマークで優れた統計的精度を達成する。
論文 参考訳(メタデータ) (2021-11-08T22:26:50Z) - Adversarial representation learning for synthetic replacement of private
attributes [0.7619404259039281]
第1ステップでは機密情報を除去し,第2ステップではこの情報を独立したランダムサンプルに置き換える,という2つのステップを含む,データ民営化のための新しいアプローチを提案する。
本手法は, より強い敵を騙すようにモデルを訓練することで, 強いプライバシを確保するために, 敵対表現学習を基盤としている。
論文 参考訳(メタデータ) (2020-06-14T22:07:19Z) - Privacy-Preserving Image Classification in the Local Setting [17.375582978294105]
ローカル微分プライバシ(LDP)は、データ所有者がランダムにインプットを摂動させ、リリース前にデータの妥当な削除を可能にする、有望なソリューションを提供する。
本稿では、データ所有者が画像を保持し、不信なデータ利用者が機械学習モデルにこれらの画像を入力として適合させたいという、双方向のイメージ分類問題について考察する。
本稿では,拡張性のある領域サイズで画像表現を生成する,教師付き画像特徴抽出器 DCAConv を提案する。
論文 参考訳(メタデータ) (2020-02-09T01:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。