論文の概要: On Private Online Convex Optimization: Optimal Algorithms in
$\ell_p$-Geometry and High Dimensional Contextual Bandits
- arxiv url: http://arxiv.org/abs/2206.08111v1
- Date: Thu, 16 Jun 2022 12:09:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 14:46:26.010152
- Title: On Private Online Convex Optimization: Optimal Algorithms in
$\ell_p$-Geometry and High Dimensional Contextual Bandits
- Title(参考訳): プライベートオンライン凸最適化について:$\ell_p$-Geometryと高次元空間帯域における最適アルゴリズム
- Authors: Yuxuan Han, Zhicong Liang, Zhipeng Liang, Yang Wang, Yuan Yao, Jiheng
Zhang
- Abstract要約: 本研究では,分散分布からサンプリングしたストリーミングデータを用いてDPの凸最適化問題について検討し,逐次到着する。
また、プライベート情報に関連するパラメータを更新し、新しいデータ(しばしばオンラインアルゴリズム)に基づいてリリースする連続リリースモデルについても検討する。
提案アルゴリズムは,1pleq 2$のときの最適余剰リスクと,2pleqinfty$のときの非プライベートな場合の最先端の余剰リスクを線形時間で達成する。
- 参考スコア(独自算出の注目度): 9.798304879986604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially private (DP) stochastic convex optimization (SCO) is
ubiquitous in trustworthy machine learning algorithm design. This paper studies
the DP-SCO problem with streaming data sampled from a distribution and arrives
sequentially. We also consider the continual release model where parameters
related to private information are updated and released upon each new data,
often known as the online algorithms. Despite that numerous algorithms have
been developed to achieve the optimal excess risks in different $\ell_p$ norm
geometries, yet none of the existing ones can be adapted to the streaming and
continual release setting. To address such a challenge as the online convex
optimization with privacy protection, we propose a private variant of online
Frank-Wolfe algorithm with recursive gradients for variance reduction to update
and reveal the parameters upon each data. Combined with the adaptive
differential privacy analysis, our online algorithm achieves in linear time the
optimal excess risk when $1<p\leq 2$ and the state-of-the-art excess risk
meeting the non-private lower ones when $2<p\leq\infty$. Our algorithm can also
be extended to the case $p=1$ to achieve nearly dimension-independent excess
risk. While previous variance reduction results on recursive gradient have
theoretical guarantee only in the independent and identically distributed
sample setting, we establish such a guarantee in a non-stationary setting. To
demonstrate the virtues of our method, we design the first DP algorithm for
high-dimensional generalized linear bandits with logarithmic regret.
Comparative experiments with a variety of DP-SCO and DP-Bandit algorithms
exhibit the efficacy and utility of the proposed algorithms.
- Abstract(参考訳): Differentially private (DP) stochastic convex Optimization (SCO)は、信頼できる機械学習アルゴリズム設計においてユビキタスである。
本稿では,分布からサンプリングしたストリーミングデータを用いてDP-SCO問題を逐次解析する。
また、プライベート情報に関連するパラメータを更新し、新しいデータ(しばしばオンラインアルゴリズム)に基づいてリリースする連続リリースモデルについても検討する。
様々な$\ell_p$標準ジオメトリの最適余剰リスクを達成するために多くのアルゴリズムが開発されているが、既存のアルゴリズムはストリーミングや連続的なリリース設定に適応できない。
プライバシ保護を伴うオンライン凸最適化のような課題に対処するために,各データに対するパラメータの更新と公開のための分散低減のための再帰勾配を持つオンラインフランクウルフアルゴリズムのプライベート変種を提案する。
アダプティブ・ディファレンシャル・プライバシ分析と組み合わせることで、オンラインアルゴリズムは、1<p\leq 2$と2<p\leq\infty$のとき非プライベートローワーのリスクを満たす最先端の過大リスクを線形時間で達成する。
このアルゴリズムは、ほぼ次元独立な余剰リスクを達成するために$p=1$の場合にも拡張できる。
再帰的勾配の以前の分散低減結果は、独立かつ同分布のサンプル設定でのみ理論的に保証されるが、非定常設定でその保証を確立する。
本手法の利点を実証するため,対数的後悔を伴う高次元一般化線形帯域に対するDPアルゴリズムを設計した。
DP-SCOアルゴリズムとDP-Banditアルゴリズムの比較実験は,提案アルゴリズムの有効性と有効性を示す。
関連論文リスト
- Individualized Privacy Accounting via Subsampling with Applications in Combinatorial Optimization [55.81991984375959]
本研究では、以下の簡単な観察を通して、個別化されたプライバシ会計を解析する新しい手法を提案する。
我々は、分解可能な部分モジュラーおよびセットアルゴリズム被覆を含む、プライベート最適化問題に対するいくつかの改良されたアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-05-28T19:02:30Z) - Improved Communication-Privacy Trade-offs in $L_2$ Mean Estimation under Streaming Differential Privacy [47.997934291881414]
既存の平均推定スキームは、通常、$L_infty$幾何に最適化され、ランダムな回転や、$L$幾何に適応するカシンの表現に依存する。
本稿では,スパシフィケーションに固有のランダム性をDPに組み込んだ,スパシフィケーションガウシアン機構の新たなプライバシ会計手法を提案する。
従来の手法とは異なり、我々の会計アルゴリズムは直接$L$幾何で動作し、ガウスの機構に迅速に収束するMSEが得られる。
論文 参考訳(メタデータ) (2024-05-02T03:48:47Z) - Variance-Dependent Regret Bounds for Linear Bandits and Reinforcement
Learning: Adaptivity and Computational Efficiency [90.40062452292091]
本稿では,不整合雑音を持つ線形帯域に対する計算効率のよい最初のアルゴリズムを提案する。
我々のアルゴリズムは未知のノイズの分散に適応し、$tildeO(d sqrtsum_k = 1K sigma_k2 + d)$ regretを達成する。
また、強化学習において、線形混合マルコフ決定過程(MDP)に対する分散適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-21T00:17:24Z) - Near Optimal Private and Robust Linear Regression [47.2888113094367]
本稿では,2つのアルゴリズムを改良したDP-SGDアルゴリズムを提案する。
ラベル破壊の下では、これは$(varepsilon,delta)$-DPとロバスト性の両方を保証する最初の効率的な線形回帰アルゴリズムである。
論文 参考訳(メタデータ) (2023-01-30T20:33:26Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Differentially Private Federated Learning via Inexact ADMM with Multiple
Local Updates [0.0]
我々は,複数の局所的な更新を施した乗算器アルゴリズムのDP不正確な交互方向法を開発した。
当社のアルゴリズムでは,各イテレーション毎に$barepsilon$-DPを提供しており,$barepsilon$はユーザが管理するプライバシ予算である。
提案アルゴリズムは,既存のDPアルゴリズムと比較してテストエラーを少なくとも31%削減すると同時に,データプライバシのレベルが同じであることを実証する。
論文 参考訳(メタデータ) (2022-02-18T19:58:47Z) - Differentially Private Federated Learning via Inexact ADMM [0.0]
差分プライバシー(DP)技術は、データプライバシを推論攻撃から保護するために、フェデレーション付き学習モデルに適用することができる。
我々は,信頼領域のサブプロブレム列を解く乗算器アルゴリズムのDP不正確な交互方向法を開発した。
提案アルゴリズムは,既存のDPアルゴリズムと比較してテストエラーを少なくとも22%削減すると同時に,データプライバシのレベルも同等に向上する。
論文 参考訳(メタデータ) (2021-06-11T02:28:07Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。