論文の概要: Shuffle Private Stochastic Convex Optimization
- arxiv url: http://arxiv.org/abs/2106.09805v1
- Date: Thu, 17 Jun 2021 20:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 13:55:44.164911
- Title: Shuffle Private Stochastic Convex Optimization
- Title(参考訳): Shuffle Private Stochastic Convex Optimization
- Authors: Albert Cheu and Matthew Joseph and Jieming Mao and Binghui Peng
- Abstract要約: シャッフルプライバシでは、各ユーザがランダム化されたメッセージの集合を信頼できるシャッフルに送信する。
シャッフルラーはランダムにこれらのメッセージをパーミュートし、その結果、シャッフルされたメッセージの集合は、差分プライバシーを満たさなければならない。
凸最適化のための対話型シャッフルプロトコルを提案する。
- 参考スコア(独自算出の注目度): 20.379311972125034
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In shuffle privacy, each user sends a collection of randomized messages to a
trusted shuffler, the shuffler randomly permutes these messages, and the
resulting shuffled collection of messages must satisfy differential privacy.
Prior work in this model has largely focused on protocols that use a single
round of communication to compute algorithmic primitives like means,
histograms, and counts. In this work, we present interactive shuffle protocols
for stochastic convex optimization. Our optimization protocols rely on a new
noninteractive protocol for summing vectors of bounded $\ell_2$ norm. By
combining this sum subroutine with techniques including mini-batch stochastic
gradient descent, accelerated gradient descent, and Nesterov's smoothing
method, we obtain loss guarantees for a variety of convex loss functions that
significantly improve on those of the local model and sometimes match those of
the central model.
- Abstract(参考訳): シャッフルプライバシでは、各ユーザがランダム化されたメッセージの集合を信頼できるシャッシャに送信し、シャッシャがランダムにこれらのメッセージを置換する。
このモデルの以前の作業は、手段、ヒストグラム、カウントなどのアルゴリズムプリミティブを計算するために、1ラウンドの通信を使用するプロトコルに重点を置いてきた。
本稿では,確率凸最適化のための対話型シャッフルプロトコルを提案する。
我々の最適化プロトコルは、有界$\ell_2$ノルムのベクトルを和る新しい非インタラクティブプロトコルに依存している。
この和サブルーチンと、ミニバッチ確率勾配降下、加速度勾配降下、ネステロフの平滑化法などの手法を組み合わせることで、局所モデルのそれに対して著しく改善され、時には中央モデルのそれと一致する様々な凸損失関数に対する損失保証を得る。
関連論文リスト
- Efficient Fault-Tolerant Quantum Protocol for Differential Privacy in the Shuffle Model [2.0794380287086214]
本稿では,ランダムシャッフルを暗黙的に実装し,シャッフルモデルにおける差分プライバシーを実現する量子プロトコルを提案する。
シャッフルモデルは、データコントリビュータから得られる結果を増幅する。
例えば、mix-networksによるシャッフルの実装や、信頼できるサードパーティによるシャッフルなどです。
本稿では、量子状態の絡み合いを利用したプロトコルの量子バージョンを提案し、これらの余分な要求なしにシャッフルを実装可能であることを示す。
論文 参考訳(メタデータ) (2024-09-06T04:53:19Z) - Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Distributed stochastic proximal algorithm with random reshuffling for
non-smooth finite-sum optimization [28.862321453597918]
非滑らかな有限サム最小化は機械学習の基本的な問題である。
本稿では,確率的リシャフリングを用いた分散近位勾配アルゴリズムを開発し,その問題の解法を提案する。
論文 参考訳(メタデータ) (2021-11-06T07:29:55Z) - A Stochastic Newton Algorithm for Distributed Convex Optimization [62.20732134991661]
均質な分散凸最適化のためのNewtonアルゴリズムを解析し、各マシンが同じ人口目標の勾配を計算する。
提案手法は,既存の手法と比較して,性能を損なうことなく,必要な通信ラウンドの数,頻度を低減できることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:51:10Z) - Sparse Quadratic Optimisation over the Stiefel Manifold with Application
to Permutation Synchronisation [71.27989298860481]
二次目的関数を最大化するスティーフェル多様体上の行列を求める非最適化問題に対処する。
そこで本研究では,支配的固有空間行列を求めるための,単純かつ効果的なスパーシティプロモーティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-30T19:17:35Z) - Parallel Stochastic Mirror Descent for MDPs [72.75921150912556]
無限水平マルコフ決定過程(MDP)における最適政策学習の問題を考える。
リプシッツ連続関数を用いた凸プログラミング問題に対してミラー・ディクセントの変種が提案されている。
このアルゴリズムを一般の場合において解析し,提案手法の動作中に誤差を蓄積しない収束率の推定値を得る。
論文 参考訳(メタデータ) (2021-02-27T19:28:39Z) - On the Benefits of Multiple Gossip Steps in Communication-Constrained
Decentralized Optimization [29.42301299741866]
ステップサイズが一定である$O(logfrac1epsilon)$の反復を$O(logfrac1epsilon)$とすることで、スムーズな非圧縮勾配目的に対する最適値の$epsilon$に収束できることを示す。
我々の知る限り、これは圧縮された通信圧縮パラメータの下での非最適化の収束結果を導出した最初の研究である。
論文 参考訳(メタデータ) (2020-11-20T21:17:32Z) - SGD with shuffling: optimal rates without component convexity and large
epoch requirements [60.65928290219793]
我々はRandomShuffle(各エポックの開始時のシャッフル)とSingleShuffle(1回だけシャッフル)を考える。
我々はこれらのアルゴリズムの最小収束速度をポリログ係数ギャップまで確立する。
我々は、すべての先行芸術に共通する欠点を取り除くことにより、RandomShuffleの厳密な収束結果をさらに強化する。
論文 参考訳(メタデータ) (2020-06-12T05:00:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。