論文の概要: Understanding Gradient Clipping in Private SGD: A Geometric Perspective
- arxiv url: http://arxiv.org/abs/2006.15429v2
- Date: Thu, 18 Mar 2021 03:09:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 07:41:39.620692
- Title: Understanding Gradient Clipping in Private SGD: A Geometric Perspective
- Title(参考訳): プライベートSGDにおけるグラディエントクリッピングの理解:幾何学的視点
- Authors: Xiangyi Chen, Zhiwei Steven Wu, Mingyi Hong
- Abstract要約: ディープラーニングモデルは、トレーニングデータが機密情報を含む可能性がある多くの機械学習アプリケーションで、ますます人気が高まっている。
多くの学習システムは、(異なる)プライベートSGDでモデルをトレーニングすることで、差分プライバシーを取り入れている。
各プライベートSGDアップデートにおける重要なステップは勾配クリッピングであり、L2ノルムがしきい値を超えると、個々の例の勾配を小さくする。
- 参考スコア(独自算出の注目度): 68.61254575987013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models are increasingly popular in many machine learning
applications where the training data may contain sensitive information. To
provide formal and rigorous privacy guarantee, many learning systems now
incorporate differential privacy by training their models with (differentially)
private SGD. A key step in each private SGD update is gradient clipping that
shrinks the gradient of an individual example whenever its L2 norm exceeds some
threshold. We first demonstrate how gradient clipping can prevent SGD from
converging to stationary point. We then provide a theoretical analysis that
fully quantifies the clipping bias on convergence with a disparity measure
between the gradient distribution and a geometrically symmetric distribution.
Our empirical evaluation further suggests that the gradient distributions along
the trajectory of private SGD indeed exhibit symmetric structure that favors
convergence. Together, our results provide an explanation why private SGD with
gradient clipping remains effective in practice despite its potential clipping
bias. Finally, we develop a new perturbation-based technique that can provably
correct the clipping bias even for instances with highly asymmetric gradient
distributions.
- Abstract(参考訳): ディープラーニングモデルは、トレーニングデータが機密情報を含む可能性がある多くの機械学習アプリケーションで人気が高まっている。
形式的かつ厳密なプライバシ保証を提供するため、多くの学習システムは、モデルを(異なる)プライベートなsgdでトレーニングすることによって、ディファレンシャルプライバシを取り入れている。
各プライベートSGDアップデートにおける重要なステップは勾配クリッピングであり、L2ノルムがしきい値を超えると、個々の例の勾配を小さくする。
まず,傾斜クリッピングによりsgdが定常点に収束することを防止する方法を示す。
次に, 勾配分布と幾何対称分布との差係数を用いて, 収束におけるクリップングバイアスを完全に定量化する理論的解析を行う。
また, sgdの軌道に沿った勾配分布は, 収束に有利な対称構造を示すことが示唆された。
その結果, クリッピングバイアスがあるにもかかわらず, クリッピングによるプライベートSGDが実際に有効である理由が示唆された。
最後に,高度に非対称な勾配分布を持つ場合であってもクリッピングバイアスを確実に補正できる摂動に基づく新しい手法を開発した。
関連論文リスト
- Enhancing DP-SGD through Non-monotonous Adaptive Scaling Gradient Weight [15.139854970044075]
我々はDP-PSASC(disferially Private Per-Sample Adaptive Scaling Clipping)を導入する。
このアプローチは、従来のクリッピングを非単調適応勾配スケーリングに置き換える。
DP-PSASCは勾配のプライバシーを保ち、多様なデータセットに優れた性能を提供する。
論文 参考訳(メタデータ) (2024-11-05T12:47:30Z) - Clip Body and Tail Separately: High Probability Guarantees for DPSGD with Heavy Tails [20.432871178766927]
Differentially Private Gradient Descent (DPSGD)は、ディープラーニングにおけるトレーニングデータのプライバシを保護するために広く利用されている。
DPSGDは、標準への勾配をクリップし、訓練手順に校正されたノイズを注入する。
本稿では,2つの重要な反復を含む新しい手法であるDPSGDを提案する。
論文 参考訳(メタデータ) (2024-05-27T16:30:11Z) - Bias-Aware Minimisation: Understanding and Mitigating Estimator Bias in
Private SGD [56.01810892677744]
DP-SGDにおいて,サンプルごとの勾配ノルムとプライベート勾配オラクルの推定バイアスの関連性を示す。
BAM(Bias-Aware Minimisation)を提案する。
論文 参考訳(メタデータ) (2023-08-23T09:20:41Z) - Improving Differentially Private SGD via Randomly Sparsified Gradients [31.295035726077366]
ディファレンシャル・プライベート・グラデーション・オブザーバ(DP-SGD)は、厳密に定義されたプライバシー境界圧縮を提供するため、ディープラーニングにおいて広く採用されている。
本稿では,通信コストを向上し,プライバシ境界圧縮を強化するためのRSを提案する。
論文 参考訳(メタデータ) (2021-12-01T21:43:34Z) - Large Scale Private Learning via Low-rank Reparametrization [77.38947817228656]
本稿では、大規模ニューラルネットワークに微分プライベートSGDを適用する際の課題を解決するために、再パラメータ化方式を提案する。
BERTモデルにディファレンシャルプライバシを適用し、4つの下流タスクで平均精度が8,3.9%に達するのはこれが初めてである。
論文 参考訳(メタデータ) (2021-06-17T10:14:43Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Direction Matters: On the Implicit Bias of Stochastic Gradient Descent
with Moderate Learning Rate [105.62979485062756]
本稿では,中等度学習におけるSGDの特定の正規化効果を特徴付けることを試みる。
SGDはデータ行列の大きな固有値方向に沿って収束し、GDは小さな固有値方向に沿って収束することを示す。
論文 参考訳(メタデータ) (2020-11-04T21:07:52Z) - Bypassing the Ambient Dimension: Private SGD with Gradient Subspace
Identification [47.23063195722975]
微分プライベートSGD(DP-SGD)は、微分プライベートな経験的リスク最小化(ERM)を解決する最も一般的な方法の1つである。
各勾配更新におけるノイズの多い摂動のため、DP-SGDの誤差率は、モデル内のパラメータ数である周囲次元$p$でスケールする。
雑音勾配を低次元部分空間に投影することでノイズ低減を行うDP-SGDを提案する。
論文 参考訳(メタデータ) (2020-07-07T22:31:01Z) - Unbiased Risk Estimators Can Mislead: A Case Study of Learning with
Complementary Labels [92.98756432746482]
我々は,補完ラベルを用いた学習という,弱教師付き問題を研究する。
勾配推定の品質はリスク最小化においてより重要であることを示す。
本稿では,ゼロバイアスと分散の低減を両立させる新しい補助的相補的損失(SCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-05T04:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。