論文の概要: Gradient Descent with Linearly Correlated Noise: Theory and Applications
to Differential Privacy
- arxiv url: http://arxiv.org/abs/2302.01463v2
- Date: Fri, 23 Jun 2023 16:10:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 17:14:12.427088
- Title: Gradient Descent with Linearly Correlated Noise: Theory and Applications
to Differential Privacy
- Title(参考訳): 線形相関雑音による勾配降下:理論と微分プライバシーへの応用
- Authors: Anastasia Koloskova, Ryan McKenna, Zachary Charles, Keith Rush,
Brendan McMahan
- Abstract要約: 線形相関雑音下での勾配降下について検討する。
我々はこの結果を用いて、微分プライベート最適化のための新しい効果的な行列分解法を開発した。
- 参考スコア(独自算出の注目度): 13.999481573773071
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study gradient descent under linearly correlated noise. Our work is
motivated by recent practical methods for optimization with differential
privacy (DP), such as DP-FTRL, which achieve strong performance in settings
where privacy amplification techniques are infeasible (such as in federated
learning). These methods inject privacy noise through a matrix factorization
mechanism, making the noise linearly correlated over iterations. We propose a
simplified setting that distills key facets of these methods and isolates the
impact of linearly correlated noise. We analyze the behavior of gradient
descent in this setting, for both convex and non-convex functions. Our analysis
is demonstrably tighter than prior work and recovers multiple important special
cases exactly (including anticorrelated perturbed gradient descent). We use our
results to develop new, effective matrix factorizations for differentially
private optimization, and highlight the benefits of these factorizations
theoretically and empirically.
- Abstract(参考訳): 線形相関雑音下での勾配降下について検討する。
我々の研究は、DP-FTRLのような近年の差分プライバシー(DP)最適化の実践的手法によって動機付けられており、プライバシーの増幅技術(フェデレーション学習など)が実現できない環境では、高い性能を達成する。
これらの手法は、行列係数化機構を介してプライバシノイズを注入し、繰り返しのノイズを線形に相関させる。
本稿では,これらの手法の鍵面を蒸留し,線形相関雑音の影響を分離する簡易な設定法を提案する。
この設定における勾配降下の挙動を凸関数と非凸関数の両方に対して解析する。
本研究は従来より明らかに厳密であり,複数の重要な症例(反相関性摂動勾配降下を含む)を正確に回収する。
我々は,微分プライベート最適化のための新しい効率的な行列因子分解法を開発し,これらの因子分解の利点を理論的および経験的に強調する。
関連論文リスト
- Privacy without Noisy Gradients: Slicing Mechanism for Generative Model Training [10.229653770070202]
差分プライバシ(DP)を持つ生成モデルを訓練するには、通常、勾配更新にノイズを注入するか、判別器の訓練手順を適用する必要がある。
プライベートデータのランダムな低次元投影にノイズを注入するスライシングプライバシ機構について考察する。
本稿では,この分散性を考慮したカーネルベース推定器を提案し,対角訓練の必要性を回避した。
論文 参考訳(メタデータ) (2024-10-25T19:32:58Z) - Correlated Noise Provably Beats Independent Noise for Differentially Private Learning [25.81442865194914]
異なるプライベート学習アルゴリズムは学習プロセスにノイズを注入する。
問題パラメータの関数として,バニラ-SGDの相関ノイズがいかに改善するかを示す。
論文 参考訳(メタデータ) (2023-10-10T16:48:18Z) - Online Sensitivity Optimization in Differentially Private Learning [8.12606646175019]
クリッピング閾値を動的に最適化する新しい手法を提案する。
我々は、このしきい値を学習可能なパラメータとして扱い、しきい値とコスト関数のクリーンな関係を確立する。
提案手法は, 多様なデータセット, タスク, モデル次元, プライバシレベルにまたがる代替的かつ適応的な戦略に対して, 徹底的に評価される。
論文 参考訳(メタデータ) (2023-10-02T00:30:49Z) - Learning Curves for Noisy Heterogeneous Feature-Subsampled Ridge
Ensembles [34.32021888691789]
雑音の多い最小二乗尾根アンサンブルにおける特徴バッグングの理論を開発する。
サブサンプリングは線形予測器の2Dピークをシフトすることを示した。
特徴サブサンプリングアンサンブルの性能を1つの線形予測器と比較する。
論文 参考訳(メタデータ) (2023-07-06T17:56:06Z) - Local Graph-homomorphic Processing for Privatized Distributed Systems [57.14673504239551]
付加雑音は学習モデルの性能に影響を与えないことを示す。
これは、分散アルゴリズムの差分プライバシーに関する以前の研究に対して、大きな改善である。
論文 参考訳(メタデータ) (2022-10-26T10:00:14Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - Adaptive Differentially Private Empirical Risk Minimization [95.04948014513226]
本稿では,適応的(確率的)勾配摂動法を提案する。
ADP法は,バニラランダムノイズを付加した標準微分プライベート法と比較して,実用性保証を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-10-14T15:02:20Z) - An automatic differentiation system for the age of differential privacy [65.35244647521989]
Tritiumは、微分プライベート(DP)機械学習(ML)のための自動微分ベース感度分析フレームワークである
我々は、微分プライベート(DP)機械学習(ML)のための自動微分に基づく感度分析フレームワークTritiumを紹介する。
論文 参考訳(メタデータ) (2021-09-22T08:07:42Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Beyond variance reduction: Understanding the true impact of baselines on
policy optimization [24.09670734037029]
学習力学は損失関数の曲率と勾配推定の雑音によって制御されることを示す。
我々は,少なくとも包帯問題では,曲率や雑音が学習力学を説明するのに十分でないことを示す理論的結果を示す。
論文 参考訳(メタデータ) (2020-08-31T17:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。