論文の概要: High-Dimensional Private Empirical Risk Minimization by Greedy
Coordinate Descent
- arxiv url: http://arxiv.org/abs/2207.01560v3
- Date: Sun, 9 Apr 2023 17:08:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 23:55:38.849656
- Title: High-Dimensional Private Empirical Risk Minimization by Greedy
Coordinate Descent
- Title(参考訳): グリーディコーディネートによる高次元私的リスク最小化
- Authors: Paul Mangold, Aur\'elien Bellet, Joseph Salmon, Marc Tommasi
- Abstract要約: 個人的リスク最小化(DP-ERM)について検討する。
DP-GCDは,幅広い問題に対して,次元の対数依存を実現できることを示す。
- 参考スコア(独自算出の注目度): 11.49109939095326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study differentially private empirical risk minimization
(DP-ERM). It has been shown that the worst-case utility of DP-ERM reduces
polynomially as the dimension increases. This is a major obstacle to privately
learning large machine learning models. In high dimension, it is common for
some model's parameters to carry more information than others. To exploit this,
we propose a differentially private greedy coordinate descent (DP-GCD)
algorithm. At each iteration, DP-GCD privately performs a coordinate-wise
gradient step along the gradients' (approximately) greatest entry. We show
theoretically that DP-GCD can achieve a logarithmic dependence on the dimension
for a wide range of problems by naturally exploiting their structural
properties (such as quasi-sparse solutions). We illustrate this behavior
numerically, both on synthetic and real datasets.
- Abstract(参考訳): 本稿では,DP-ERMの個人的リスク最小化について検討する。
DP-ERMの最悪の効用は次元が大きくなるにつれて多項式的に減少することが示されている。
これは、大規模機械学習モデルをプライベートに学習する上での大きな障害である。
高次元では、あるモデルのパラメータが他のモデルよりも多くの情報を運ぶことが一般的である。
そこで本研究では, 微分的にプライベートな greedy coordinate descend (dp-gcd) アルゴリズムを提案する。
各イテレーションで、dp-gcdは、勾配の(ほぼ)最大エントリに沿って座標的な勾配ステップをプライベートに実行する。
我々は,DP-GCDが,その構造特性(準スパース解など)を自然に利用することにより,幅広い問題において次元に対数依存できることを示す。
我々は,合成データと実データの両方について,この挙動を数値的に示す。
関連論文リスト
- Private Fine-tuning of Large Language Models with Zeroth-order Optimization [51.19403058739522]
差分的プライベート勾配降下(DP-SGD)により、モデルはプライバシ保護の方法でトレーニングできる。
DP-ZO(DP-ZO)は,ゼロオーダー最適化手法を民営化することで,大規模言語モデルのためのプライベートな微調整フレームワークである。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Pre-trained Perceptual Features Improve Differentially Private Image
Generation [8.659595986100738]
差分降下勾配(DP-SGD)を用いた中等度生成モデルの訓練も困難である。
私たちは、情報のある公開データセット上に適切な、関連する表現を構築し、その表現でプライベートデータをモデル化することを学びます。
私たちの研究は、プライベートと非プライベートの深層生成モデルの間のギャップを減らすための、シンプルで強力な基盤を導入しています。
論文 参考訳(メタデータ) (2022-05-25T16:46:01Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Differentially Private Coordinate Descent for Composite Empirical Risk
Minimization [13.742100810492014]
機械学習モデルは、トレーニングに使用されるデータに関する情報をリークすることができる。
Differentially Private (DP) のGradient Descent (DP-SGD) のような最適化アルゴリズムは、これを緩和するために設計されている。
差分的私的リスク最小化法(DP-ERM: Differentially Private Coordinate Descent:DP-CD)を提案する。
論文 参考訳(メタデータ) (2021-10-22T10:22:48Z) - Bypassing the Ambient Dimension: Private SGD with Gradient Subspace
Identification [47.23063195722975]
微分プライベートSGD(DP-SGD)は、微分プライベートな経験的リスク最小化(ERM)を解決する最も一般的な方法の1つである。
各勾配更新におけるノイズの多い摂動のため、DP-SGDの誤差率は、モデル内のパラメータ数である周囲次元$p$でスケールする。
雑音勾配を低次元部分空間に投影することでノイズ低減を行うDP-SGDを提案する。
論文 参考訳(メタデータ) (2020-07-07T22:31:01Z) - A One-Pass Private Sketch for Most Machine Learning Tasks [48.17461258268463]
差別化プライバシ(DP)は、正式な証明可能な保証を通じて、プライバシとユーティリティのトレードオフを説明する魅力的なプライバシ定義である。
本稿では,回帰,分類,密度推定など,多数の機械学習タスクをサポートするプライベートスケッチを提案する。
このスケッチは,局所性に敏感なハッシュをインデックス化して,効率的なワンパスアルゴリズムで構築したランダムな一致テーブルで構成されている。
論文 参考訳(メタデータ) (2020-06-16T17:47:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。