論文の概要: Privacy amplification and decoupling without smoothing
- arxiv url: http://arxiv.org/abs/2105.05342v2
- Date: Sun, 9 Jan 2022 23:27:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 20:48:34.980166
- Title: Privacy amplification and decoupling without smoothing
- Title(参考訳): 平滑化のないプライバシ増幅とデカップリング
- Authors: Fr\'ed\'eric Dupuis
- Abstract要約: 我々は、$$alpha in (1,2$) のサンドイッチ付き R'enyi エントロピーの観点から、プライバシーの増幅とデカップリングの達成可能性を証明する。
この証明が 1 に近い$alpha$ に対して有効であるという事実は、境界が完全量子 AEP あるいはエントロピーの蓄積から来る多くの応用において滑らかな min-エントロピーをバイパスできることを意味する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We prove an achievability result for privacy amplification and decoupling in
terms of the sandwiched R\'enyi entropy of order $\alpha \in (1,2]$; this
extends previous results which worked for $\alpha=2$. The fact that this proof
works for $\alpha$ close to 1 means that we can bypass the smooth min-entropy
in the many applications where the bound comes from the fully quantum AEP or
entropy accumulation, and carry out the whole proof using the R\'enyi entropy,
thereby easily obtaining an error exponent for the final task. This effectively
replaces smoothing, which is a difficult high-dimensional optimization problem,
by an optimization problem over a single real parameter $\alpha$.
- Abstract(参考訳): 我々は、プライバシの増幅とデカップリングのための達成可能な結果として、オーダー$\alpha \in (1,2]$のサンドイッチされたr\'enyiエントロピーの観点から証明する。
この証明が 1 に近い$\alpha$ で有効であるという事実は、境界が完全量子 AEP あるいはエントロピーの蓄積から来る多くの応用において滑らかな min-エントロピーをバイパスし、R\enyi エントロピーを用いて証明全体を実行することができ、したがって最終タスクに対する誤差指数を容易に得ることを意味する。
これは、難しい高次元最適化問題である平滑化を、単一の実パラメータ$\alpha$上の最適化問題に効果的に置き換える。
関連論文リスト
- An Algorithm with Optimal Dimension-Dependence for Zero-Order Nonsmooth
Nonconvex Stochastic Optimization [44.065130483176944]
リプシッツの目的の滑らかな点も凸点も生成しない点の複雑さについて検討する。
我々の分析は、最近の進歩を活用できる単純だが強力な集合に基づいている。
論文 参考訳(メタデータ) (2023-07-10T11:56:04Z) - Deterministic Nonsmooth Nonconvex Optimization [94.01526844386977]
次元自由な次元自由アルゴリズムを得るにはランダム化が必要であることを示す。
我々のアルゴリズムは、ReLUネットワークを最適化する最初の決定論的次元自由アルゴリズムを得る。
論文 参考訳(メタデータ) (2023-02-16T13:57:19Z) - Near-Optimal Non-Convex Stochastic Optimization under Generalized
Smoothness [21.865728815935665]
2つの最近の研究は、$O(epsilon-3)$サンプル複雑性を確立し、$O(epsilon)$-定常点を得る。
しかし、どちらも$mathrmploy(epsilon-1)$という大きなバッチサイズを必要とする。
本研究では,STORMアルゴリズムの単純な変種を再検討することにより,従来の2つの問題を同時に解決する。
論文 参考訳(メタデータ) (2023-02-13T00:22:28Z) - A Newton-CG based barrier-augmented Lagrangian method for general
nonconvex conic optimization [77.8485863487028]
本稿では、2つの異なる対象の一般円錐最適化を最小化する近似二階定常点(SOSP)について検討する。
特に、近似SOSPを見つけるためのNewton-CGベースの拡張共役法を提案する。
論文 参考訳(メタデータ) (2023-01-10T20:43:29Z) - Private optimization in the interpolation regime: faster rates and
hardness results [9.405458160620533]
プライベートでない凸最適化では、勾配法は非補間法よりも、全てのサンプル損失を同時に最小化する解が存在するという問題にはるかに早く収束する。
プライベートサンプルの複雑さは指数関数的に改善した(近辺)。
論文 参考訳(メタデータ) (2022-10-31T05:18:27Z) - Nonsmooth Nonconvex-Nonconcave Minimax Optimization: Primal-Dual
Balancing and Iteration Complexity Analysis [28.575516056239575]
PLDAの新たな解析手法を導入し,その鍵となるのは,新たに開発された非滑らかかつ二重なエラー反復である。
PLDA が $thetain [0,12]$ のとき、緩やかな仮定の下で最適な $mathcalO()$ を達成する。
論文 参考訳(メタデータ) (2022-09-22T07:12:48Z) - Near-Optimal High Probability Complexity Bounds for Non-Smooth
Stochastic Optimization with Heavy-Tailed Noise [63.304196997102494]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
既存の非滑らか凸最適化法は、負のパワーまたは対数的な信頼度に依存する境界の複雑さを持つ。
クリッピングを用いた2つの勾配法に対して, 新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Mixture weights optimisation for Alpha-Divergence Variational Inference [0.0]
本稿では,変分推論のための$alpha$-divergence最小化手法について述べる。
すべての$alpha neq 1$に対して定義されるパワードネッセントはそのようなアルゴリズムである。
一階近似により、新しいアルゴリズムであるRenyi Descentを導入することができる。
論文 参考訳(メタデータ) (2021-06-09T14:47:05Z) - Oracle Complexity in Nonsmooth Nonconvex Optimization [49.088972349825085]
円滑で有界な$$stationaryポイントを考えると、Oracleベースのメソッドは円滑さの円滑な近似を見つけることができることがよく知られている。
本稿では,最適化と平滑化次元とのトレードオフを実証する。
論文 参考訳(メタデータ) (2021-04-14T10:42:45Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。