論文の概要: Momentum Aggregation for Private Non-convex ERM
- arxiv url: http://arxiv.org/abs/2210.06328v1
- Date: Wed, 12 Oct 2022 15:48:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 15:33:40.129673
- Title: Momentum Aggregation for Private Non-convex ERM
- Title(参考訳): プライベート非凸ERMのためのモーメントアグリゲーション
- Authors: Hoang Tran, Ashok Cutkosky
- Abstract要約: 我々は、スムーズな$dDの目的に対して、プライバシを保存する非次元の非経験的最小化のための新しいアルゴリズムと保証を導入する。
本研究では,スムーズな例の再現性を利用した勾配降下目標の開発を行う。
- 参考スコア(独自算出の注目度): 45.17205354923149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce new algorithms and convergence guarantees for privacy-preserving
non-convex Empirical Risk Minimization (ERM) on smooth $d$-dimensional
objectives. We develop an improved sensitivity analysis of stochastic gradient
descent on smooth objectives that exploits the recurrence of examples in
different epochs. By combining this new approach with recent analysis of
momentum with private aggregation techniques, we provide an
$(\epsilon,\delta)$-differential private algorithm that finds a gradient of
norm $\tilde O\left(\frac{d^{1/3}}{(\epsilon N)^{2/3}}\right)$ in
$O\left(\frac{N^{7/3}\epsilon^{4/3}}{d^{2/3}}\right)$ gradient evaluations,
improving the previous best gradient bound of $\tilde
O\left(\frac{d^{1/4}}{\sqrt{\epsilon N}}\right)$.
- Abstract(参考訳): 我々は,滑らかな$d$次元目的に対して,プライバシ保存非凸経験的リスク最小化(erm)のための新しいアルゴリズムと収束保証を導入する。
異なる時代における例の再帰を生かした滑らかな対象に対する確率的勾配降下の感度解析を改良した。
この新しいアプローチと最近の運動量解析とプライベートアグリゲーション手法を組み合わせることで、$(\epsilon,\delta)$-differential privateアルゴリズムを提供し、通常の$\tilde o\left(\frac{d^{1/3}}{(\epsilon n)^{2/3}}\right)$ in $o\left(\frac{n^{7/3}\epsilon^{4/3}}{d^{2/3}}\right)$グラデーション評価を行い、これまでの$\tilde o\left(\frac{d^{1/4}}{\sqrt{\epsilon n}}\right)$の最高勾配境界を改善した。
関連論文リスト
- Differential Private Stochastic Optimization with Heavy-tailed Data: Towards Optimal Rates [15.27596975662702]
重み付き勾配を用いたDP最適化の最適速度を達成するアルゴリズムについて検討する。
その結果,DP下での凸最適化の理論的限界が達成可能であることを示す。
論文 参考訳(メタデータ) (2024-08-19T11:07:05Z) - Private Zeroth-Order Nonsmooth Nonconvex Optimization [41.05664717242051]
非平滑な目的と非平滑な目的に対するプライベート最適化のための新しいゼロ階アルゴリズムを提案する。
データセットサイズが$M$であれば、アルゴリズムはプライバシの差分を見つける。
目的はスムーズではないが、プライバシーがある。
無料の$tdepsilon$
論文 参考訳(メタデータ) (2024-06-27T23:57:01Z) - ReSQueing Parallel and Private Stochastic Convex Optimization [59.53297063174519]
本稿では,BFG凸最適化(SCO: Reweighted Query (ReSQue) 推定ツールを提案する。
我々はSCOの並列およびプライベート設定における最先端の複雑さを実現するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-01T18:51:29Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - Private Stochastic Convex Optimization: Optimal Rates in $\ell_1$
Geometry [69.24618367447101]
対数要因まで $(varepsilon,delta)$-differently private の最適過剰人口損失は $sqrtlog(d)/n + sqrtd/varepsilon n.$ です。
損失関数がさらなる滑らかさの仮定を満たすとき、余剰損失は$sqrtlog(d)/n + (log(d)/varepsilon n)2/3で上界(対数因子まで)であることが示される。
論文 参考訳(メタデータ) (2021-03-02T06:53:44Z) - Faster Convergence of Stochastic Gradient Langevin Dynamics for
Non-Log-Concave Sampling [110.88857917726276]
我々は,非log-concaveとなる分布のクラスからサンプリングするために,勾配ランゲヴィンダイナミクス(SGLD)の新たな収束解析を行う。
我々のアプローチの核心は、補助的時間反転型マルコフ連鎖を用いたSGLDのコンダクタンス解析である。
論文 参考訳(メタデータ) (2020-10-19T15:23:18Z) - Accelerated Zeroth-Order and First-Order Momentum Methods from Mini to
Minimax Optimization [133.53164856723782]
そこで我々は,関数値のみが得られるブラックボックス最小最適化のための新しいアクセラレーションゼロ階運動量 (AccZOM) 法を提案する。
一方,ブラックボックス最小値最適化のためのアクセラレーションゼロ階運動量降下法(Acc-MDA)を提案する。
特に、Acc-MDAは、$tildeO(kappa_y2.5epsilon-3)$の低い勾配の複雑さを、バッチサイズ$O(kappa_y4)$で得ることができる。
論文 参考訳(メタデータ) (2020-08-18T22:19:29Z) - Fast Dimension Independent Private AdaGrad on Publicly Estimated
Subspaces [24.52697154861819]
AdaGradは、従来のAdaGradに匹敵する後悔と、ノイズによるよく制御された用語を達成していることを示す。
我々は制約付きおよび制約なしの最小化において一般凸関数で操作する。
論文 参考訳(メタデータ) (2020-08-14T20:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。