論文の概要: Differential Privacy Dynamics of Langevin Diffusion and Noisy Gradient
Descent
- arxiv url: http://arxiv.org/abs/2102.05855v1
- Date: Thu, 11 Feb 2021 05:49:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 14:19:03.996513
- Title: Differential Privacy Dynamics of Langevin Diffusion and Noisy Gradient
Descent
- Title(参考訳): Langevin Diffusion と Noisy Gradient Diescent の差分プライバシーダイナミクス
- Authors: Rishav Chourasia, Jiayuan Ye, Reza Shokri
- Abstract要約: 我々はLangevin拡散におけるプライバシー損失のダイナミクスをモデル化し、ノイズ勾配降下アルゴリズムに拡張する。
プライバシーの損失は指数関数的に速く収束する。
- 参考スコア(独自算出の注目度): 10.409652277630132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We model the dynamics of privacy loss in Langevin diffusion and extend it to
the noisy gradient descent algorithm: we compute a tight bound on R\'enyi
differential privacy and the rate of its change throughout the learning
process. We prove that the privacy loss converges exponentially fast. This
significantly improves the prior privacy analysis of differentially private
(stochastic) gradient descent algorithms, where (R\'enyi) privacy loss
constantly increases over the training iterations. Unlike composition-based
methods in differential privacy, our privacy analysis does not assume that the
noisy gradients (or parameters) during the training could be revealed to the
adversary. Our analysis tracks the dynamics of privacy loss through the
algorithm's intermediate parameter distributions, thus allowing us to account
for privacy amplification due to convergence. We prove that our privacy
analysis is tight, and also provide a utility analysis for strongly convex,
smooth and Lipshitz loss functions.
- Abstract(参考訳): 我々は,ランジュバン拡散におけるプライバシ損失のダイナミクスをモデル化し,ノイズ勾配降下アルゴリズムに拡張する。
プライバシーの損失は指数関数的に速く収束する。
これは、(r\'enyi)プライバシの損失がトレーニングイテレーションで常に増加する差分プライベート(stochastic)勾配降下アルゴリズムの事前プライバシ解析を大幅に改善する。
差分プライバシーにおける構成に基づく手法とは異なり、我々のプライバシー分析は、トレーニング中のノイズの勾配(またはパラメータ)が敵に明らかにできると仮定しない。
本解析では,アルゴリズムの中間パラメータ分布によるプライバシ損失のダイナミクスを追跡することで,収束によるプライバシ増幅を考慮できる。
当社のプライバシ解析が厳密であることを証明すると同時に,強い凸,滑らか,リプシッツ損失関数のユーティリティ解析も提供しています。
関連論文リスト
- Shifted Interpolation for Differential Privacy [6.1836947007564085]
雑音勾配降下とその変種は、微分プライベート機械学習の主要なアルゴリズムである。
本稿では、$f$差分プライバシの統一化フレームワークにおいて、"corollary によるプライバシ増幅" 現象を確立する。
これは、強力な凸最適化の基礎的な設定において、最初の正確なプライバシー分析につながる。
論文 参考訳(メタデータ) (2024-03-01T04:50:04Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Privacy Loss of Noisy Stochastic Gradient Descent Might Converge Even
for Non-Convex Losses [4.68299658663016]
Noisy-SGDアルゴリズムは機械学習モデルのプライベートトレーニングに広く利用されている。
最近の研究によると、もし内部の状態が隠されたままなら、プライバシーの喪失は行き詰まる可能性がある。
DP-SGDは,学習過程における個々のサンプルの影響を抑えるために,勾配クリッピングを取り入れたNuisy-SGDの一般的な変種である。
論文 参考訳(メタデータ) (2023-05-17T02:25:56Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Privacy of Noisy Stochastic Gradient Descent: More Iterations without
More Privacy Loss [34.66940399825547]
業界は単純なアルゴリズムを広く採用している:騒音を伴うグラディエントDescent(グラディエントLangevin Dynamics)
このアルゴリズムのプライバシ損失に関する疑問は、バウンドドメイン上の滑らかな凸損失の一見単純な設定であっても、まだオープンである。
我々は、差分プライバシーを一定の要因まで特徴づけ、小さなバーンイン期間の後、SGDの実行がこれ以上のプライバシーを漏らさないことを示す。
論文 参考訳(メタデータ) (2022-05-27T02:09:55Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - On the Differentially Private Nature of Perturbed Gradient Descent [15.554148012395457]
勾配降下アルゴリズムを用いて,データベースを与えられた経験的最小化の問題を考える。
勾配降下アルゴリズムは典型的には差分サドル点から逃れるために用いられる。
論文 参考訳(メタデータ) (2021-01-18T02:29:37Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。