論文の概要: Self-Supervised Pretraining for Differentially Private Learning
- arxiv url: http://arxiv.org/abs/2206.07125v1
- Date: Tue, 14 Jun 2022 19:30:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 01:27:13.042054
- Title: Self-Supervised Pretraining for Differentially Private Learning
- Title(参考訳): 微分プライベート学習のための自己教師付き事前学習
- Authors: Arash Asadian and Evan Weidner and Lei Jiang
- Abstract要約: 自己教師付き事前学習(SSP)は、差分プライバシー(DP)を用いたディープラーニングのためのスケーラブルなソリューションである
我々は,SSPが生成する特徴を1つの画像だけに示すことで,同一のプライバシー予算下での非学習手作り機能よりも,プライベートな分類器がはるかに優れた実用性を得ることができることを示す。
- 参考スコア(独自算出の注目度): 5.3358356207700055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We demonstrate self-supervised pretraining (SSP) is a scalable solution to
deep learning with differential privacy (DP) regardless of the size of
available public datasets in image classification. When facing the lack of
public datasets, we show the features generated by SSP on only one single image
enable a private classifier to obtain much better utility than the non-learned
handcrafted features under the same privacy budget. When a moderate or large
size public dataset is available, the features produced by SSP greatly
outperform the features trained with labels on various complex private datasets
under the same private budget. We also compared multiple DP-enabled training
frameworks to train a private classifier on the features generated by SSP.
Finally, we report a non-trivial utility 25.3\% of a private ImageNet-1K
dataset when $\epsilon=3$.
- Abstract(参考訳): 自己教師付き事前学習(ssp)は,画像分類における公開データセットのサイズに関わらず,差分プライバシー(dp)を持つディープラーニングに対するスケーラブルなソリューションである。
パブリックデータセットの欠如に直面して、SSPが生成する特徴を1つのイメージだけに示すことで、プライベート分類器は同じプライバシー予算の下で非学習手作り機能よりもはるかに優れた実用性を得ることができる。
適度なあるいは大規模なパブリックデータセットが利用可能である場合、SSPが生成する機能は、同じプライベート予算の下で、さまざまな複雑なプライベートデータセット上でラベルでトレーニングされた機能を大幅に上回る。
また、複数のdp対応トレーニングフレームワークを比較して、sspが生成する機能についてプライベートな分類器をトレーニングした。
最後に、private imagenet-1kデータセットの非自明なユーティリティ25.3\%を$\epsilon=3$で報告する。
関連論文リスト
- Beyond the Mean: Differentially Private Prototypes for Private Transfer Learning [16.028575596905554]
本稿では,個人間移動学習の新たなパラダイムとして,DPPL(differially Private Prototype Learning)を提案する。
DPPLは、埋め込み空間内の各プライベートクラスを表すプロトタイプを生成し、推論のために公開することができる。
エンコーダの事前トレーニング以上の公開データを活用すれば,プライバシユーティリティのトレードオフをさらに改善できることを示す。
論文 参考訳(メタデータ) (2024-06-12T09:41:12Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Differentially Private Representation Learning via Image Captioning [51.45515227171524]
画像キャプションとインターネット規模のマルチモーダルデータセットのスケールアップにより,効率的なDP表現学習が可能であることを示す。
LAION-2Bの233Mサブセット上のDPイメージキャプタ(DP-Cap)を,合理的な計算量を用いてスクラッチからトレーニングした。
論文 参考訳(メタデータ) (2024-03-04T21:52:25Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - DP$^2$-VAE: Differentially Private Pre-trained Variational Autoencoders [26.658723213776632]
DP保証付き変分オートエンコーダ(VAE)のトレーニング機構であるDP$2$-VAEを提案する。
さまざまなプライバシ予算と評価指標の下で,ベースラインよりも優位性を示すために,画像データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-05T23:57:34Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Pre-trained Perceptual Features Improve Differentially Private Image
Generation [8.659595986100738]
差分降下勾配(DP-SGD)を用いた中等度生成モデルの訓練も困難である。
私たちは、情報のある公開データセット上に適切な、関連する表現を構築し、その表現でプライベートデータをモデル化することを学びます。
私たちの研究は、プライベートと非プライベートの深層生成モデルの間のギャップを減らすための、シンプルで強力な基盤を導入しています。
論文 参考訳(メタデータ) (2022-05-25T16:46:01Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。