論文の概要: Bias-Aware Minimisation: Understanding and Mitigating Estimator Bias in
Private SGD
- arxiv url: http://arxiv.org/abs/2308.12018v1
- Date: Wed, 23 Aug 2023 09:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:58:45.094920
- Title: Bias-Aware Minimisation: Understanding and Mitigating Estimator Bias in
Private SGD
- Title(参考訳): バイアス認識最小化:プライベートSGDにおける推定バイアスの理解と緩和
- Authors: Moritz Knolle, Robert Dorfman, Alexander Ziller, Daniel Rueckert and
Georgios Kaissis
- Abstract要約: DP-SGDにおいて,サンプルごとの勾配ノルムとプライベート勾配オラクルの推定バイアスの関連性を示す。
BAM(Bias-Aware Minimisation)を提案する。
- 参考スコア(独自算出の注目度): 56.01810892677744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentially private SGD (DP-SGD) holds the promise of enabling the safe
and responsible application of machine learning to sensitive datasets. However,
DP-SGD only provides a biased, noisy estimate of a mini-batch gradient. This
renders optimisation steps less effective and limits model utility as a result.
With this work, we show a connection between per-sample gradient norms and the
estimation bias of the private gradient oracle used in DP-SGD. Here, we propose
Bias-Aware Minimisation (BAM) that allows for the provable reduction of private
gradient estimator bias. We show how to efficiently compute quantities needed
for BAM to scale to large neural networks and highlight similarities to closely
related methods such as Sharpness-Aware Minimisation. Finally, we provide
empirical evidence that BAM not only reduces bias but also substantially
improves privacy-utility trade-offs on the CIFAR-10, CIFAR-100, and ImageNet-32
datasets.
- Abstract(参考訳): 微分プライベートSGD(DP-SGD)は、機密データセットに対する機械学習の安全かつ責任ある適用を可能にするという約束を掲げている。
しかし、DP-SGD は最小バッチ勾配のバイアス付き雑音推定のみを提供する。
これにより最適化ステップの効率が低下し、結果としてモデルユーティリティが制限される。
本研究は,DP-SGDで用いられる個人勾配の標準値と個人勾配の偏差の相関関係を示す。
本稿では,プライベート勾配推定器のバイアスを低減できるバイアス認識最小化法(BAM)を提案する。
BAMが大規模ニューラルネットワークにスケールするために必要な量を効率的に計算する方法を示し、シャープネス・アウェア・ミニマライゼーションのような近縁な手法と類似点を強調する。
最後に、BAMがバイアスを減らすだけでなく、CIFAR-10、CIFAR-100、ImageNet-32データセットのプライバシー利用トレードオフを大幅に改善するという実証的な証拠を提供する。
関連論文リスト
- Enhancing DP-SGD through Non-monotonous Adaptive Scaling Gradient Weight [15.139854970044075]
我々はDP-PSASC(disferially Private Per-Sample Adaptive Scaling Clipping)を導入する。
このアプローチは、従来のクリッピングを非単調適応勾配スケーリングに置き換える。
DP-PSASCは勾配のプライバシーを保ち、多様なデータセットに優れた性能を提供する。
論文 参考訳(メタデータ) (2024-11-05T12:47:30Z) - Differentially Private SGD Without Clipping Bias: An Error-Feedback Approach [62.000948039914135]
Differentially Private Gradient Descent with Gradient Clipping (DPSGD-GC) を使用して、差分プライバシ(DP)がモデルパフォーマンス劣化の犠牲となることを保証する。
DPSGD-GCに代わる新しいエラーフィードバック(EF)DPアルゴリズムを提案する。
提案アルゴリズムに対するアルゴリズム固有のDP解析を確立し,R'enyi DPに基づくプライバシ保証を提供する。
論文 参考訳(メタデータ) (2023-11-24T17:56:44Z) - Sparsity-Preserving Differentially Private Training of Large Embedding
Models [67.29926605156788]
DP-SGDは、差分プライバシーと勾配降下を組み合わせたトレーニングアルゴリズムである。
DP-SGDをネーティブに埋め込みモデルに適用すると、勾配の間隔が破壊され、トレーニング効率が低下する。
我々は,大規模埋め込みモデルのプライベートトレーニングにおいて,勾配間隔を保ったDP-FESTとDP-AdaFESTの2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T17:59:51Z) - Improving Differentially Private SGD via Randomly Sparsified Gradients [31.295035726077366]
ディファレンシャル・プライベート・グラデーション・オブザーバ(DP-SGD)は、厳密に定義されたプライバシー境界圧縮を提供するため、ディープラーニングにおいて広く採用されている。
本稿では,通信コストを向上し,プライバシ境界圧縮を強化するためのRSを提案する。
論文 参考訳(メタデータ) (2021-12-01T21:43:34Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Bypassing the Ambient Dimension: Private SGD with Gradient Subspace
Identification [47.23063195722975]
微分プライベートSGD(DP-SGD)は、微分プライベートな経験的リスク最小化(ERM)を解決する最も一般的な方法の1つである。
各勾配更新におけるノイズの多い摂動のため、DP-SGDの誤差率は、モデル内のパラメータ数である周囲次元$p$でスケールする。
雑音勾配を低次元部分空間に投影することでノイズ低減を行うDP-SGDを提案する。
論文 参考訳(メタデータ) (2020-07-07T22:31:01Z) - Unbiased Risk Estimators Can Mislead: A Case Study of Learning with
Complementary Labels [92.98756432746482]
我々は,補完ラベルを用いた学習という,弱教師付き問題を研究する。
勾配推定の品質はリスク最小化においてより重要であることを示す。
本稿では,ゼロバイアスと分散の低減を両立させる新しい補助的相補的損失(SCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-05T04:19:37Z) - Understanding Gradient Clipping in Private SGD: A Geometric Perspective [68.61254575987013]
ディープラーニングモデルは、トレーニングデータが機密情報を含む可能性がある多くの機械学習アプリケーションで、ますます人気が高まっている。
多くの学習システムは、(異なる)プライベートSGDでモデルをトレーニングすることで、差分プライバシーを取り入れている。
各プライベートSGDアップデートにおける重要なステップは勾配クリッピングであり、L2ノルムがしきい値を超えると、個々の例の勾配を小さくする。
論文 参考訳(メタデータ) (2020-06-27T19:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。