論文の概要: PCDP-SGD: Improving the Convergence of Differentially Private SGD via
Projection in Advance
- arxiv url: http://arxiv.org/abs/2312.03792v1
- Date: Wed, 6 Dec 2023 13:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 17:27:12.678852
- Title: PCDP-SGD: Improving the Convergence of Differentially Private SGD via
Projection in Advance
- Title(参考訳): PCDP-SGD:プロジェクションによる個人別SGDの収束性の向上
- Authors: Haichao Sha (1) and Ruixuan Liu (1) and Yixuan Liu (1) and Hong Chen
(1) ((1) Renmin University of China)
- Abstract要約: Differentially Private SGD(DP-SGD)は、集中型および連合型の両方の設定において、トレーニングデータの理論的保証を提供する。
冗長な勾配ノルムを圧縮し,より重要な勾配成分を保存することを目的とした,汎用フレームワークPCDP-SGDを提案する。
我々は,PCDP-SGDがコンピュータビジョンタスクにおける最先端のDP-SGD変種と比較して高い精度を実現することを証明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paradigm of Differentially Private SGD~(DP-SGD) can provide a theoretical
guarantee for training data in both centralized and federated settings.
However, the utility degradation caused by DP-SGD limits its wide application
in high-stakes tasks, such as medical image diagnosis. In addition to the
necessary perturbation, the convergence issue is attributed to the information
loss on the gradient clipping. In this work, we propose a general framework
PCDP-SGD, which aims to compress redundant gradient norms and preserve more
crucial top gradient components via projection operation before gradient
clipping. Additionally, we extend PCDP-SGD as a fundamental component in
differential privacy federated learning~(DPFL) for mitigating the data
heterogeneous challenge and achieving efficient communication. We prove that
pre-projection enhances the convergence of DP-SGD by reducing the dependence of
clipping error and bias to a fraction of the top gradient eigenspace, and in
theory, limits cross-client variance to improve the convergence under
heterogeneous federation. Experimental results demonstrate that PCDP-SGD
achieves higher accuracy compared with state-of-the-art DP-SGD variants in
computer vision tasks. Moreover, PCDP-SGD outperforms current federated
learning frameworks when DP is guaranteed on local training sets.
- Abstract(参考訳): Differentially Private SGD~(DP-SGD)のパラダイムは、集中型および連合型両方の環境でのトレーニングデータの理論的保証を提供する。
しかし,dp-sgdによる有用性の低下は,医療画像診断などのハイステイクタスクに広く応用されている。
必要な摂動に加えて、収束問題は勾配クリッピングの情報損失に起因する。
本研究では,冗長な勾配ノルムを圧縮し,勾配クリッピング前の投影操作によりより重要なトップ勾配成分を保存する汎用フレームワークpcdp-sgdを提案する。
さらに,PCDP-SGDを差分プライバシーフェデレーション学習の基本要素として拡張し,データの異種課題を緩和し,効率的なコミュニケーションを実現する。
プレプロジェクションは,上勾配固有空間の分数へのクリッピング誤差とバイアスの依存性を減少させることにより,dp-sgdの収束を促進することを証明し,理論的には,異種結合下での収束を改善するためにクライアント間分散を制限する。
実験の結果,PCDP-SGDはコンピュータビジョンタスクにおける最先端のDP-SGD変種と比較して精度が高いことがわかった。
さらに、PCDP-SGDは、ローカルトレーニングセット上でDPが保証された場合、現在のフェデレーション学習フレームワークよりも優れている。
関連論文リスト
- Enhancing DP-SGD through Non-monotonous Adaptive Scaling Gradient Weight [15.139854970044075]
我々はDP-PSASC(disferially Private Per-Sample Adaptive Scaling Clipping)を導入する。
このアプローチは、従来のクリッピングを非単調適応勾配スケーリングに置き換える。
DP-PSASCは勾配のプライバシーを保ち、多様なデータセットに優れた性能を提供する。
論文 参考訳(メタデータ) (2024-11-05T12:47:30Z) - Differentially Private SGD Without Clipping Bias: An Error-Feedback Approach [62.000948039914135]
Differentially Private Gradient Descent with Gradient Clipping (DPSGD-GC) を使用して、差分プライバシ(DP)がモデルパフォーマンス劣化の犠牲となることを保証する。
DPSGD-GCに代わる新しいエラーフィードバック(EF)DPアルゴリズムを提案する。
提案アルゴリズムに対するアルゴリズム固有のDP解析を確立し,R'enyi DPに基づくプライバシ保証を提供する。
論文 参考訳(メタデータ) (2023-11-24T17:56:44Z) - Sparsity-Preserving Differentially Private Training of Large Embedding
Models [67.29926605156788]
DP-SGDは、差分プライバシーと勾配降下を組み合わせたトレーニングアルゴリズムである。
DP-SGDをネーティブに埋め込みモデルに適用すると、勾配の間隔が破壊され、トレーニング効率が低下する。
我々は,大規模埋め込みモデルのプライベートトレーニングにおいて,勾配間隔を保ったDP-FESTとDP-AdaFESTの2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T17:59:51Z) - Bias-Aware Minimisation: Understanding and Mitigating Estimator Bias in
Private SGD [56.01810892677744]
DP-SGDにおいて,サンプルごとの勾配ノルムとプライベート勾配オラクルの推定バイアスの関連性を示す。
BAM(Bias-Aware Minimisation)を提案する。
論文 参考訳(メタデータ) (2023-08-23T09:20:41Z) - Decentralized SGD and Average-direction SAM are Asymptotically
Equivalent [101.37242096601315]
分散勾配降下(D-SGD)は、中央サーバを制御せずに大規模デバイス上で協調学習を可能にする。
既存の理論では、分散化は必ず一般化される。
論文 参考訳(メタデータ) (2023-06-05T14:19:52Z) - DPIS: An Enhanced Mechanism for Differentially Private SGD with Importance Sampling [23.8561225168394]
ディファレンシャルプライバシ(DP)は、プライバシ保護の十分に受け入れられた標準となり、ディープニューラルネットワーク(DNN)は、機械学習において非常に成功した。
この目的のための古典的なメカニズムはDP-SGDであり、これは訓練に一般的に使用される勾配降下(SGD)の微分プライベートバージョンである。
DPISは,DP-SGDのコアのドロップイン代替として使用できる,微分プライベートなSGDトレーニングのための新しいメカニズムである。
論文 参考訳(メタデータ) (2022-10-18T07:03:14Z) - Differentially Private SGDA for Minimax Problems [83.57322009102973]
本研究は, 勾配勾配降下上昇(SGDA)が原始二重集団リスクの弱さの観点から最適に有効であることを示す。
これは、非滑らかで強固なコンケーブ設定において、初めて知られている結果である。
論文 参考訳(メタデータ) (2022-01-22T13:05:39Z) - DP-FP: Differentially Private Forward Propagation for Large Models [2.062295244789704]
DPフォワードプロパゲーション (DP-FP) に差分プライベートグラディエントDescenceを置き換えることにより, 性能低下を緩和する方法を示す。
われわれのDP-FPの平均精度は91.34%で、プライバシー予算は3未満であり、最先端のDP-SGDよりも3.81%パフォーマンスが向上した。
論文 参考訳(メタデータ) (2021-12-29T07:32:29Z) - Improving Differentially Private SGD via Randomly Sparsified Gradients [31.295035726077366]
ディファレンシャル・プライベート・グラデーション・オブザーバ(DP-SGD)は、厳密に定義されたプライバシー境界圧縮を提供するため、ディープラーニングにおいて広く採用されている。
本稿では,通信コストを向上し,プライバシ境界圧縮を強化するためのRSを提案する。
論文 参考訳(メタデータ) (2021-12-01T21:43:34Z) - Detached Error Feedback for Distributed SGD with Random Sparsification [98.98236187442258]
コミュニケーションのボトルネックは、大規模なディープラーニングにおいて重要な問題である。
非効率な分散問題に対する誤りフィードバックよりも優れた収束性を示す分散誤差フィードバック(DEF)アルゴリズムを提案する。
また、DEFよりも優れた境界を示すDEFの一般化を加速するDEFAを提案する。
論文 参考訳(メタデータ) (2020-04-11T03:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。