論文の概要: Pre-Pruning and Gradient-Dropping Improve Differentially Private Image
Classification
- arxiv url: http://arxiv.org/abs/2306.11754v1
- Date: Mon, 19 Jun 2023 14:35:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 16:36:03.339834
- Title: Pre-Pruning and Gradient-Dropping Improve Differentially Private Image
Classification
- Title(参考訳): 画像の差分分類を改良したプレプニングとグラディエントドローピング
- Authors: Kamil Adamczewski, Yingchen He, Mijung Park
- Abstract要約: 本稿では,テキストプリプルーニングとテキストグラディエントドロップを用いた新しいトレーニングパラダイムを導入し,パラメータ空間の削減と拡張性の向上を図る。
トレーニングパラダイムでは,プレプニング率と勾配ドロップ率,プライバシ損失,分類精度の間に緊張関係が生じる。
- 参考スコア(独自算出の注目度): 9.120531252536617
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Scalability is a significant challenge when it comes to applying differential
privacy to training deep neural networks. The commonly used DP-SGD algorithm
struggles to maintain a high level of privacy protection while achieving high
accuracy on even moderately sized models. To tackle this challenge, we take
advantage of the fact that neural networks are overparameterized, which allows
us to improve neural network training with differential privacy. Specifically,
we introduce a new training paradigm that uses \textit{pre-pruning} and
\textit{gradient-dropping} to reduce the parameter space and improve
scalability. The process starts with pre-pruning the parameters of the original
network to obtain a smaller model that is then trained with DP-SGD. During
training, less important gradients are dropped, and only selected gradients are
updated. Our training paradigm introduces a tension between the rates of
pre-pruning and gradient-dropping, privacy loss, and classification accuracy.
Too much pre-pruning and gradient-dropping reduces the model's capacity and
worsens accuracy, while training a smaller model requires less privacy budget
for achieving good accuracy. We evaluate the interplay between these factors
and demonstrate the effectiveness of our training paradigm for both training
from scratch and fine-tuning pre-trained networks on several benchmark image
classification datasets. The tools can also be readily incorporated into
existing training paradigms.
- Abstract(参考訳): ディープニューラルネットワークのトレーニングに差分プライバシを適用するという点では、スケーラビリティは大きな課題です。
一般的に使用されるDP-SGDアルゴリズムは、中程度のモデルでも高い精度を達成しつつ、高いレベルのプライバシ保護を維持するのに苦労する。
この課題に対処するために、ニューラルネットワークが過度にパラメータ化されているという事実を活用して、差分プライバシーによるニューラルネットワークトレーニングを改善することができる。
具体的には,パラメータ空間の削減とスケーラビリティ向上のために,‘textit{pre-pruning} と \textit{gradient-dropping} を用いた新たなトレーニングパラダイムを導入する。
プロセスは、元のネットワークのパラメータを事前解析して、DP-SGDでトレーニングされた小さなモデルを得ることから始まります。
トレーニング中、重要度は低下し、選択した勾配のみが更新される。
トレーニングパラダイムでは,プレプニング率と勾配ドロップ率,プライバシ損失,分類精度の間に緊張関係が生じる。
事前プルングと勾配ドロップが多すぎると、モデルのキャパシティが低下し、精度が低下する一方、より小さなモデルのトレーニングでは、適切な精度を達成するために、プライバシー予算の削減が要求される。
我々はこれらの要因間の相互作用を評価し、複数のベンチマーク画像分類データセット上で、スクラッチと微調整済みネットワークのトレーニングにおけるトレーニングパラダイムの有効性を示す。
このツールは、既存のトレーニングパラダイムにも簡単に組み込める。
関連論文リスト
- Stepping Forward on the Last Mile [8.756033984943178]
本稿では,バックプロパゲーションと比較してメモリフットプリントと精度のギャップを低減させるアルゴリズムの一連の拡張を提案する。
その結果、エッジデバイス上でのモデルカスタマイズの最後のマイルでは、固定点前方勾配によるトレーニングが実現可能で実践的なアプローチであることが示されている。
論文 参考訳(メタデータ) (2024-11-06T16:33:21Z) - Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Sparsity-Preserving Differentially Private Training of Large Embedding
Models [67.29926605156788]
DP-SGDは、差分プライバシーと勾配降下を組み合わせたトレーニングアルゴリズムである。
DP-SGDをネーティブに埋め込みモデルに適用すると、勾配の間隔が破壊され、トレーニング効率が低下する。
我々は,大規模埋め込みモデルのプライベートトレーニングにおいて,勾配間隔を保ったDP-FESTとDP-AdaFESTの2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T17:59:51Z) - Differential Privacy Meets Neural Network Pruning [10.77469946354744]
ニューラルネットワークのプルーニングと差分プライバシーの相互作用をパラメータ更新の2つのモードを用いて検討する。
実験により,パラメータ空間の減少が個人訓練の差分を改善することを示す。
勾配に依存しない2種類の人気プルーニングについて研究し、さらなるプライバシー損失を生じさせないことにより、ランダム選択が等級に基づく選択と同等に実行されることを示す。
論文 参考訳(メタデータ) (2023-03-08T14:27:35Z) - Equivariant Differentially Private Deep Learning: Why DP-SGD Needs
Sparser Models [7.49320945341034]
小型で効率的なアーキテクチャ設計は、計算要求がかなり少ない最先端のモデルよりも優れていることを示す。
私たちの結果は、パラメータを最適に活用する効率的なモデルアーキテクチャへの一歩です。
論文 参考訳(メタデータ) (2023-01-30T17:43:47Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Slimmable Networks for Contrastive Self-supervised Learning [69.9454691873866]
自己教師付き学習は、大規模なモデルを事前訓練する上で大きな進歩を遂げるが、小さなモデルでは苦労する。
追加の教師を必要とせず、訓練済みの小型モデルを得るための1段階のソリューションも導入する。
スリム化可能なネットワークは、完全なネットワークと、様々なネットワークを得るために一度にトレーニングできるいくつかの重み共有サブネットワークから構成される。
論文 参考訳(メタデータ) (2022-09-30T15:15:05Z) - Wide Network Learning with Differential Privacy [7.453881927237143]
現在のニューラルネットの世代は、最も実質的に関連するプライバシトレーニング体制下で大きな損失を被っている。
プライベートな経験最小化(ERM)の勾配を生かしたこれらのモデルを訓練するための一般的なアプローチを開発する。
同じパラメータの数に従って、ニューラルネットワークをプライベートにトレーニングするための新しいアルゴリズムを提案します。
論文 参考訳(メタデータ) (2021-03-01T20:31:50Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。