論文の概要: Bypassing the Ambient Dimension: Private SGD with Gradient Subspace
Identification
- arxiv url: http://arxiv.org/abs/2007.03813v2
- Date: Fri, 23 Apr 2021 23:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 19:34:03.667734
- Title: Bypassing the Ambient Dimension: Private SGD with Gradient Subspace
Identification
- Title(参考訳): アンビエント次元をバイパスする:グラディエント部分空間同定付きプライベートSGD
- Authors: Yingxue Zhou, Zhiwei Steven Wu, Arindam Banerjee
- Abstract要約: 微分プライベートSGD(DP-SGD)は、微分プライベートな経験的リスク最小化(ERM)を解決する最も一般的な方法の1つである。
各勾配更新におけるノイズの多い摂動のため、DP-SGDの誤差率は、モデル内のパラメータ数である周囲次元$p$でスケールする。
雑音勾配を低次元部分空間に投影することでノイズ低減を行うDP-SGDを提案する。
- 参考スコア(独自算出の注目度): 47.23063195722975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially private SGD (DP-SGD) is one of the most popular methods for
solving differentially private empirical risk minimization (ERM). Due to its
noisy perturbation on each gradient update, the error rate of DP-SGD scales
with the ambient dimension $p$, the number of parameters in the model. Such
dependence can be problematic for over-parameterized models where $p \gg n$,
the number of training samples. Existing lower bounds on private ERM show that
such dependence on $p$ is inevitable in the worst case. In this paper, we
circumvent the dependence on the ambient dimension by leveraging a
low-dimensional structure of gradient space in deep networks -- that is, the
stochastic gradients for deep nets usually stay in a low dimensional subspace
in the training process. We propose Projected DP-SGD that performs noise
reduction by projecting the noisy gradients to a low-dimensional subspace,
which is given by the top gradient eigenspace on a small public dataset. We
provide a general sample complexity analysis on the public dataset for the
gradient subspace identification problem and demonstrate that under certain
low-dimensional assumptions the public sample complexity only grows
logarithmically in $p$. Finally, we provide a theoretical analysis and
empirical evaluations to show that our method can substantially improve the
accuracy of DP-SGD in the high privacy regime (corresponding to low privacy
loss $\epsilon$).
- Abstract(参考訳): 微分プライベートSGD(DP-SGD)は、微分プライベートな経験的リスク最小化(ERM)を解決する最も一般的な方法の1つである。
各勾配更新におけるノイズの多い摂動のため、DP-SGDの誤差率は、モデル内のパラメータ数である周囲次元$p$でスケールする。
このような依存は、トレーニングサンプルの数である$p \gg n$の過パラメータモデルでは問題となる。
既存のプライベートEMMの下位境界は、最悪の場合、$p$への依存は避けられないことを示している。
本稿では,深層ネットワークにおける勾配空間の低次元構造,すなわち深部ネットの確率勾配をトレーニング過程における低次元部分空間に常駐させることにより,環境次元への依存を回避する。
本稿では,低次元部分空間に雑音勾配を投影してノイズ低減を行うDP-SGDを提案する。
我々は,勾配部分空間同定問題に対する公開データセットの一般サンプル複雑性解析を行い,特定の低次元仮定の下では,公開サンプル複雑性が対数的に$p$で増加することを証明する。
最後に,本手法が高プライバシー体制におけるDP-SGDの精度を大幅に向上できることを示すため,理論的解析および実証評価を行った。
関連論文リスト
- Differentially Private SGD Without Clipping Bias: An Error-Feedback Approach [62.000948039914135]
Differentially Private Gradient Descent with Gradient Clipping (DPSGD-GC) を使用して、差分プライバシ(DP)がモデルパフォーマンス劣化の犠牲となることを保証する。
DPSGD-GCに代わる新しいエラーフィードバック(EF)DPアルゴリズムを提案する。
提案アルゴリズムに対するアルゴリズム固有のDP解析を確立し,R'enyi DPに基づくプライバシ保証を提供する。
論文 参考訳(メタデータ) (2023-11-24T17:56:44Z) - Bias-Aware Minimisation: Understanding and Mitigating Estimator Bias in
Private SGD [56.01810892677744]
DP-SGDにおいて,サンプルごとの勾配ノルムとプライベート勾配オラクルの推定バイアスの関連性を示す。
BAM(Bias-Aware Minimisation)を提案する。
論文 参考訳(メタデータ) (2023-08-23T09:20:41Z) - High-Dimensional Private Empirical Risk Minimization by Greedy
Coordinate Descent [11.49109939095326]
個人的リスク最小化(DP-ERM)について検討する。
DP-GCDは,幅広い問題に対して,次元の対数依存を実現できることを示す。
論文 参考訳(メタデータ) (2022-07-04T16:27:00Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Deep learning, stochastic gradient descent and diffusion maps [0.0]
勾配降下(SGD)はその計算効率のためにディープラーニングで広く使われている。
過度にパラメータ化された深層ネットワークの損失ランドスケープにおけるHessianの損失関数のほとんどの固有値がゼロに近いことが観察されている。
パラメータ空間は非常に高次元であるが、これらの結果はSGD力学が主に低次元多様体上に存在することを示唆しているようである。
論文 参考訳(メタデータ) (2022-04-04T10:19:39Z) - Improving Differentially Private SGD via Randomly Sparsified Gradients [31.295035726077366]
ディファレンシャル・プライベート・グラデーション・オブザーバ(DP-SGD)は、厳密に定義されたプライバシー境界圧縮を提供するため、ディープラーニングにおいて広く採用されている。
本稿では,通信コストを向上し,プライバシ境界圧縮を強化するためのRSを提案する。
論文 参考訳(メタデータ) (2021-12-01T21:43:34Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Understanding Gradient Clipping in Private SGD: A Geometric Perspective [68.61254575987013]
ディープラーニングモデルは、トレーニングデータが機密情報を含む可能性がある多くの機械学習アプリケーションで、ますます人気が高まっている。
多くの学習システムは、(異なる)プライベートSGDでモデルをトレーニングすることで、差分プライバシーを取り入れている。
各プライベートSGDアップデートにおける重要なステップは勾配クリッピングであり、L2ノルムがしきい値を超えると、個々の例の勾配を小さくする。
論文 参考訳(メタデータ) (2020-06-27T19:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。