論文の概要: TAN Without a Burn: Scaling Laws of DP-SGD
- arxiv url: http://arxiv.org/abs/2210.03403v2
- Date: Wed, 24 May 2023 10:20:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 03:10:26.013156
- Title: TAN Without a Burn: Scaling Laws of DP-SGD
- Title(参考訳): TAN Without a Burn: DP-SGDのスケーリング法則
- Authors: Tom Sander, Pierre Stock, Alexandre Sablayrolles
- Abstract要約: 近年、ディープニューラルネットワーク(DNN)を訓練するための微分プライベートな手法が進歩している。
プライバシ分析とノイズのあるトレーニングの実験的振る舞いを分離し、最小限の計算要件でトレードオフを探索する。
我々は,提案手法をCIFAR-10とImageNetに適用し,特にImageNetの最先端性を,上位1点の精度で向上させる。
- 参考スコア(独自算出の注目度): 70.7364032297978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially Private methods for training Deep Neural Networks (DNNs) have
progressed recently, in particular with the use of massive batches and
aggregated data augmentations for a large number of training steps. These
techniques require much more computing resources than their non-private
counterparts, shifting the traditional privacy-accuracy trade-off to a
privacy-accuracy-compute trade-off and making hyper-parameter search virtually
impossible for realistic scenarios. In this work, we decouple privacy analysis
and experimental behavior of noisy training to explore the trade-off with
minimal computational requirements. We first use the tools of R\'enyi
Differential Privacy (RDP) to highlight that the privacy budget, when not
overcharged, only depends on the total amount of noise (TAN) injected
throughout training. We then derive scaling laws for training models with
DP-SGD to optimize hyper-parameters with more than a $100\times$ reduction in
computational budget. We apply the proposed method on CIFAR-10 and ImageNet
and, in particular, strongly improve the state-of-the-art on ImageNet with a +9
points gain in top-1 accuracy for a privacy budget epsilon=8.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のトレーニングのための異なるプライベートメソッドは、特に大規模なバッチと集約されたデータ拡張を多数のトレーニングステップに使用することで、最近進歩している。
これらの技術は、プライベートでないものよりもはるかに多くのコンピューティングリソースを必要とし、従来のプライバシー-正確性トレードオフをプライバシー-正確性-計算トレードオフに移行し、現実的なシナリオではハイパーパラメータ検索を事実上不可能にする。
本研究では,プライバシ解析とノイズトレーニングの実験行動を分離し,最小計算量でトレードオフを探索する。
まずR\'enyi Differential Privacy(RDP)のツールを使用して、過充電されていない場合、トレーニング中に注入されるトータルノイズ量(TAN)にのみ依存する、と強調する。
次に、DP-SGDを用いたトレーニングモデルのスケーリング法則を導出し、計算予算を100ドル以上削減したハイパーパラメーターを最適化する。
提案手法をCIFAR-10とImageNetに適用し,特にプライバシ予算のEpsilon=8において,9点以上の精度でImageNetの最先端性を強く向上させる。
関連論文リスト
- Differentially Private Image Classification by Learning Priors from
Random Processes [48.0766422536737]
プライバシー保護機械学習において、差分プライベート勾配降下(DP-SGD)は、サンプルごとの勾配クリッピングとノイズ付加によりSGDよりも悪化する。
近年のプライベートラーニング研究は, DP-SGDを実世界の公開データに組み込むことで, 個人データにおけるDP-SGDの性能向上に力を入れている。
本研究では,DP-SGDのプライバシ・ユーティリティ・トレードオフを改善するために,ランダムなプロセスによって生成された画像から先行情報を学習し,それらをプライベートデータに転送する方法を検討する。
論文 参考訳(メタデータ) (2023-06-08T04:14:32Z) - Fine-Tuning with Differential Privacy Necessitates an Additional
Hyperparameter Search [38.83524780461911]
トレーニング済みニューラルネットワークで微調整されたレイヤを慎重に選択することで、プライバシと正確性の間に新たな最先端のトレードオフを確立することができることを示す。
ImageNetで事前トレーニングされたモデルに対して、CIFAR-100上で$(varepsilon, delta)= (2, 10-5)$に対して77.9%の精度を達成する。
論文 参考訳(メタデータ) (2022-10-05T11:32:49Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Pre-trained Perceptual Features Improve Differentially Private Image
Generation [8.659595986100738]
差分降下勾配(DP-SGD)を用いた中等度生成モデルの訓練も困難である。
私たちは、情報のある公開データセット上に適切な、関連する表現を構築し、その表現でプライベートデータをモデル化することを学びます。
私たちの研究は、プライベートと非プライベートの深層生成モデルの間のギャップを減らすための、シンプルで強力な基盤を導入しています。
論文 参考訳(メタデータ) (2022-05-25T16:46:01Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。