論文の概要: DP-SGD Without Clipping: The Lipschitz Neural Network Way
- arxiv url: http://arxiv.org/abs/2305.16202v2
- Date: Thu, 22 Feb 2024 14:59:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 18:58:32.289210
- Title: DP-SGD Without Clipping: The Lipschitz Neural Network Way
- Title(参考訳): クリッピングのないdp-sgd:lipschitzニューラルネットワーク方式
- Authors: Louis Bethune, Thomas Massena, Thibaut Boissin, Yannick Prudent,
Corentin Friedrich, Franck Mamalet, Aurelien Bellet, Mathieu Serrurier, David
Vigouroux
- Abstract要約: ディファレンシャル・プライベート(DP)ディープ・ニューラル・ニューラルネットワーク(DNN)の訓練
パラメータに関して各レイヤのリプシッツ定数をバウンドすることで、これらのネットワークをプライバシ保証でトレーニングできることを証明します。
我々の分析では、上記の感性度を大規模に計算できるだけでなく、固定されたプライバシー保証のための勾配-雑音比を最大化するためのガイダンスも提供しています。
- 参考スコア(独自算出の注目度): 5.922390405022253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art approaches for training Differentially Private (DP) Deep
Neural Networks (DNN) face difficulties to estimate tight bounds on the
sensitivity of the network's layers, and instead rely on a process of
per-sample gradient clipping. This clipping process not only biases the
direction of gradients but also proves costly both in memory consumption and in
computation. To provide sensitivity bounds and bypass the drawbacks of the
clipping process, we propose to rely on Lipschitz constrained networks. Our
theoretical analysis reveals an unexplored link between the Lipschitz constant
with respect to their input and the one with respect to their parameters. By
bounding the Lipschitz constant of each layer with respect to its parameters,
we prove that we can train these networks with privacy guarantees. Our analysis
not only allows the computation of the aforementioned sensitivities at scale,
but also provides guidance on how to maximize the gradient-to-noise ratio for
fixed privacy guarantees. The code has been released as a Python package
available at https://github.com/Algue-Rythme/lip-dp
- Abstract(参考訳): 差分プライベート(dp)ディープニューラルネットワーク(dnn)のトレーニングに関する最先端のアプローチでは、ネットワークのレイヤの感度に関する厳密な境界の推定が難しく、代わりにサンプル毎の勾配クリッピングのプロセスに依存する。
このクリッピングプロセスは勾配の方向をバイアスするだけでなく、メモリ消費と計算の両方でコストがかかることを証明している。
クリッピングプロセスの欠点を回避し,感度境界を提供するため,リプシッツ制約付きネットワークを活用することを提案する。
我々の理論的解析は、入力に関してリプシッツ定数とパラメータに関してのリプシッツ定数の間の未探索のリンクを明らかにする。
パラメータに関して各レイヤのリプシッツ定数をバウンドすることで、これらのネットワークをプライバシ保証でトレーニングできることを証明します。
我々の分析は、上記の感覚の大規模計算を可能にするだけでなく、固定されたプライバシー保証のための勾配-雑音比を最大化するためのガイダンスも提供する。
コードはPythonパッケージとしてhttps://github.com/Algue-Rythme/lip-dpで公開されている。
関連論文リスト
- LipKernel: Lipschitz-Bounded Convolutional Neural Networks via Dissipative Layers [0.0468732641979009]
本稿では,畳み込みニューラルネットワーク(CNN)の階層的パラメータ化を提案する。
提案手法は,2次元ロエサー型状態空間モデルを用いて,散逸型畳み込みカーネルを直接パラメータ化する。
提案手法を用いた実行時間は,最先端のリプシッツ有界ネットワークよりも桁違いに高速であることを示す。
論文 参考訳(メタデータ) (2024-10-29T17:20:14Z) - Scalable Lipschitz Estimation for CNNs [3.8125535078871127]
ディープニューラルネットワークのリプシッツ定数を推定することは、関心が高まっている。
CNNはコンピュータビジョン関連のアプリケーションにおける最近の成功の多くを支えている。
CNNのリプシッツ定数推定を高速化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-27T14:28:44Z) - Differentially Private SGD Without Clipping Bias: An Error-Feedback Approach [62.000948039914135]
Differentially Private Gradient Descent with Gradient Clipping (DPSGD-GC) を使用して、差分プライバシ(DP)がモデルパフォーマンス劣化の犠牲となることを保証する。
DPSGD-GCに代わる新しいエラーフィードバック(EF)DPアルゴリズムを提案する。
提案アルゴリズムに対するアルゴリズム固有のDP解析を確立し,R'enyi DPに基づくプライバシ保証を提供する。
論文 参考訳(メタデータ) (2023-11-24T17:56:44Z) - Direct Parameterization of Lipschitz-Bounded Deep Networks [3.883460584034766]
本稿では,深部ニューラルネットワーク(完全接続および畳み込みの両方)の新たなパラメータ化を提案する。
リプシッツ保証は半確定プログラム(SDP)による認証に基づく最も厳密な既知の境界と等価である
直接のパラメータ化、すなわち$mathbb RN$ から SDP ベースの境界を満たす重みの集合への滑らかな写像を提供する。
論文 参考訳(メタデータ) (2023-01-27T04:06:31Z) - Efficiently Computing Local Lipschitz Constants of Neural Networks via
Bound Propagation [79.13041340708395]
リプシッツ定数は、堅牢性、公正性、一般化など、ニューラルネットワークの多くの性質と結びついている。
既存のリプシッツ定数の計算法は、相対的に緩い上界を生成するか、小さなネットワークに制限される。
ニューラルネットワークの局所リプシッツ定数$ell_infty$をクラーク・ヤコビアンのノルムを強く上向きに上向きに計算する効率的なフレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-13T22:23:22Z) - Chordal Sparsity for Lipschitz Constant Estimation of Deep Neural
Networks [77.82638674792292]
ニューラルネットワークのリプシッツ定数は、画像分類の堅牢性、コントローラ設計の安全性、トレーニングデータを超えた一般化性を保証する。
リプシッツ定数の計算はNPハードであるため、リプシッツ定数を推定する手法はスケーラビリティと精度のトレードオフをナビゲートする必要がある。
本研究では,LipSDPと呼ばれる半定値プログラミング手法のスケーラビリティフロンティアを大幅に推し進め,精度の損失をゼロにする。
論文 参考訳(メタデータ) (2022-04-02T11:57:52Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - Understanding Gradient Clipping in Private SGD: A Geometric Perspective [68.61254575987013]
ディープラーニングモデルは、トレーニングデータが機密情報を含む可能性がある多くの機械学習アプリケーションで、ますます人気が高まっている。
多くの学習システムは、(異なる)プライベートSGDでモデルをトレーニングすることで、差分プライバシーを取り入れている。
各プライベートSGDアップデートにおける重要なステップは勾配クリッピングであり、L2ノルムがしきい値を超えると、個々の例の勾配を小さくする。
論文 参考訳(メタデータ) (2020-06-27T19:08:12Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。