論文の概要: TAN without a burn: Scaling Laws of DP-SGD
- arxiv url: http://arxiv.org/abs/2210.03403v1
- Date: Fri, 7 Oct 2022 08:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:33:55.222306
- Title: TAN without a burn: Scaling Laws of DP-SGD
- Title(参考訳): 燃えないタン:DP-SGDのスケーリング法則
- Authors: Tom Sander, Pierre Stock, Alexandre Sablayrolles
- Abstract要約: プライバシ分析とノイズのあるトレーニングの実験的振る舞いを分離し、最小限の計算要件でトレードオフを探索する。
我々は,提案手法をCIFAR-10とImageNetに適用し,特にImageNetの精度が+9ポイント向上した。
- 参考スコア(独自算出の注目度): 70.7364032297978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially Private methods for training Deep Neural Networks (DNNs) have
progressed recently, in particular with the use of massive batches and
aggregated data augmentations for a large number of steps. These techniques
require much more compute than their non-private counterparts, shifting the
traditional privacy-accuracy trade-off to a privacy-accuracy-compute trade-off
and making hyper-parameter search virtually impossible for realistic scenarios.
In this work, we decouple privacy analysis and experimental behavior of noisy
training to explore the trade-off with minimal computational requirements. We
first use the tools of R\'enyi Differential Privacy (RDP) to show that the
privacy budget, when not overcharged, only depends on the total amount of noise
(TAN) injected throughout training. We then derive scaling laws for training
models with DP-SGD to optimize hyper-parameters with more than a 100 reduction
in computational budget. We apply the proposed method on CIFAR-10 and ImageNet
and, in particular, strongly improve the state-of-the-art on ImageNet with a +9
points gain in accuracy for a privacy budget epsilon=8.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のトレーニングのための異なるプライベートメソッドは、特に大規模なバッチと集約されたデータ拡張を使用することで、最近進歩している。
これらのテクニックは、非プライベートなものとはるかに多くの計算を必要とするため、従来のプライバシ-精度トレードオフをプライバシ-精度-コンピュートトレードオフに移行し、現実的なシナリオではハイパーパラメータ検索を事実上不可能にします。
本研究では,プライバシ解析とノイズトレーニングの実験行動を分離し,最小計算量でトレードオフを探索する。
まずR\'enyi Differential Privacy(RDP)のツールを使用して、過充電されていない場合、トレーニング中に注入されるトータルノイズ量(TAN)にのみ、プライバシー予算が依存することを示す。
次に,DP-SGDを用いた学習モデルのスケーリング法則を導出し,計算予算を100以上削減したハイパーパラメータを最適化する。
我々は,提案手法をCIFAR-10とImageNetに適用し,特に,プライバシ予算エプシロン=8の精度が+9ポイント向上したImageNetの最先端性を強く改善する。
関連論文リスト
- Differentially Private Image Classification by Learning Priors from
Random Processes [48.0766422536737]
プライバシー保護機械学習において、差分プライベート勾配降下(DP-SGD)は、サンプルごとの勾配クリッピングとノイズ付加によりSGDよりも悪化する。
近年のプライベートラーニング研究は, DP-SGDを実世界の公開データに組み込むことで, 個人データにおけるDP-SGDの性能向上に力を入れている。
本研究では,DP-SGDのプライバシ・ユーティリティ・トレードオフを改善するために,ランダムなプロセスによって生成された画像から先行情報を学習し,それらをプライベートデータに転送する方法を検討する。
論文 参考訳(メタデータ) (2023-06-08T04:14:32Z) - Fine-Tuning with Differential Privacy Necessitates an Additional
Hyperparameter Search [38.83524780461911]
トレーニング済みニューラルネットワークで微調整されたレイヤを慎重に選択することで、プライバシと正確性の間に新たな最先端のトレードオフを確立することができることを示す。
ImageNetで事前トレーニングされたモデルに対して、CIFAR-100上で$(varepsilon, delta)= (2, 10-5)$に対して77.9%の精度を達成する。
論文 参考訳(メタデータ) (2022-10-05T11:32:49Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Pre-trained Perceptual Features Improve Differentially Private Image
Generation [8.659595986100738]
差分降下勾配(DP-SGD)を用いた中等度生成モデルの訓練も困難である。
私たちは、情報のある公開データセット上に適切な、関連する表現を構築し、その表現でプライベートデータをモデル化することを学びます。
私たちの研究は、プライベートと非プライベートの深層生成モデルの間のギャップを減らすための、シンプルで強力な基盤を導入しています。
論文 参考訳(メタデータ) (2022-05-25T16:46:01Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。