論文の概要: Large Scale Transfer Learning for Differentially Private Image
Classification
- arxiv url: http://arxiv.org/abs/2205.02973v1
- Date: Fri, 6 May 2022 01:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 13:15:49.280965
- Title: Large Scale Transfer Learning for Differentially Private Image
Classification
- Title(参考訳): 微分プライベート画像分類のための大規模転送学習
- Authors: Harsh Mehta, Abhradeep Thakurta, Alexey Kurakin, Ashok Cutkosky
- Abstract要約: Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
- 参考スコア(独自算出の注目度): 51.10365553035979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential Privacy (DP) provides a formal framework for training machine
learning models with individual example level privacy. Training models with DP
protects the model against leakage of sensitive data in a potentially
adversarial setting. In the field of deep learning, Differentially Private
Stochastic Gradient Descent (DP-SGD) has emerged as a popular private training
algorithm. Private training using DP-SGD protects against leakage by injecting
noise into individual example gradients, such that the trained model weights
become nearly independent of the use any particular training example. While
this result is quite appealing, the computational cost of training large-scale
models with DP-SGD is substantially higher than non-private training. This is
further exacerbated by the fact that increasing the number of parameters leads
to larger degradation in utility with DP. In this work, we zoom in on the
ImageNet dataset and demonstrate that similar to the non-private case,
pre-training over-parameterized models on a large public dataset can lead to
substantial gains when the model is finetuned privately. Moreover, by
systematically comparing private and non-private models across a range of huge
batch sizes, we find that similar to non-private setting, choice of optimizer
can further improve performance substantially with DP. By switching from DP-SGD
to DP-LAMB we saw improvement of up to 20$\%$ points (absolute). Finally, we
show that finetuning just the last layer for a \emph{single step} in the full
batch setting leads to both SOTA results of 81.7 $\%$ under a wide privacy
budget range of $\epsilon \in [4, 10]$ and $\delta$ = $10^{-6}$ while
minimizing the computational overhead substantially.
- Abstract(参考訳): Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
dpを用いたトレーニングモデルは、潜在的に敵対的な設定で機密データの漏洩からモデルを保護する。
深層学習の分野では,DP-SGD (differially Private Stochastic Gradient Descent) が一般的なプライベートトレーニングアルゴリズムとして登場した。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
このことは、パラメータ数の増加がDPによるユーティリティの劣化に繋がるという事実によってさらに悪化する。
本研究では、ImageNetデータセットを拡大し、非プライベートケースと同様、大規模なパブリックデータセット上で事前トレーニングされたオーバーパラメータ化モデルが、モデルがプライベートに微調整された場合、大幅に向上することを示した。
さらに,大規模バッチサイズでプライベートモデルと非プライベートモデルを体系的に比較することにより,非プライベート設定と同様,最適化器の選択によりDPの性能が大幅に向上することがわかった。
DP-SGDからDP-LAMBに切り替えることで、最大20$\%のポイント(絶対)が改善されました。
最後に、全バッチ設定で \emph{single step} の最後のレイヤだけを微調整すると、幅広いプライバシー予算の範囲で 81.7$\%$ と$\epsilon \in [4, 10]$ と $\delta$ = 10^{-6}$ という2つの sota 結果が得られるが、計算オーバーヘッドは実質的に最小化される。
関連論文リスト
- Pre-training Differentially Private Models with Limited Public Data [54.943023722114134]
ディファレンシャルプライバシ(DP)は、モデルに提供されるセキュリティの度合いを測定するための重要な手法である。
DPはまだ、最初の事前訓練段階で使用されるデータのかなりの部分を保護することができない。
公共データの10%しか利用しない新しいDP継続事前学習戦略を開発した。
ImageNet-21kのDP精度は41.5%、非DP精度は55.7%、下流タスクのPlaces365とiNaturalist-2021では60.0%である。
論文 参考訳(メタデータ) (2024-02-28T23:26:27Z) - Private Fine-tuning of Large Language Models with Zeroth-order Optimization [51.19403058739522]
差分的プライベート勾配降下(DP-SGD)により、モデルはプライバシ保護の方法でトレーニングできる。
DP-ZO(DP-ZO)は,ゼロオーダー最適化手法を民営化することで,大規模言語モデルのためのプライベートな微調整フレームワークである。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - Sparsity-Preserving Differentially Private Training of Large Embedding
Models [67.29926605156788]
DP-SGDは、差分プライバシーと勾配降下を組み合わせたトレーニングアルゴリズムである。
DP-SGDをネーティブに埋め込みモデルに適用すると、勾配の間隔が破壊され、トレーニング効率が低下する。
我々は,大規模埋め込みモデルのプライベートトレーニングにおいて,勾配間隔を保ったDP-FESTとDP-AdaFESTの2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T17:59:51Z) - TAN Without a Burn: Scaling Laws of DP-SGD [70.7364032297978]
近年、ディープニューラルネットワーク(DNN)を訓練するための微分プライベートな手法が進歩している。
プライバシ分析とノイズのあるトレーニングの実験的振る舞いを分離し、最小限の計算要件でトレードオフを探索する。
我々は,提案手法をCIFAR-10とImageNetに適用し,特にImageNetの最先端性を,上位1点の精度で向上させる。
論文 参考訳(メタデータ) (2022-10-07T08:44:35Z) - Large Language Models Can Be Strong Differentially Private Learners [70.0317718115406]
Differentially Private(DP)学習は、テキストの大規模なディープラーニングモデルを構築する上で、限られた成功を収めている。
この性能低下は,大規模な事前学習モデルを用いることで緩和可能であることを示す。
本稿では,DP-SGDにおけるクリッピングを,サンプルごとの勾配をインスタンス化せずに実行可能にするメモリ節約手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:45:27Z) - An Efficient DP-SGD Mechanism for Large Scale NLP Models [28.180412581994485]
自然言語理解(NLU)モデルを訓練するために使用されるデータは、住所や電話番号などのプライベート情報を含むことができる。
基礎となるモデルは、トレーニングデータに含まれるプライベート情報を公開しないことが望ましい。
プライバシ保護モデルを構築するメカニズムとして,DP-SGD(Fariially Private Gradient Descent)が提案されている。
論文 参考訳(メタデータ) (2021-07-14T15:23:27Z) - DPlis: Boosting Utility of Differentially Private Deep Learning via
Randomized Smoothing [0.0]
DPlis--Differentially Private Learning wIth Smoothingを提案します。
DPlisは,プライバシ予算の下でモデル品質とトレーニングの安定性を効果的に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-03-02T06:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。