論文の概要: Differentially Private Stochastic Coordinate Descent
- arxiv url: http://arxiv.org/abs/2006.07272v4
- Date: Sun, 14 Mar 2021 11:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:42:32.321041
- Title: Differentially Private Stochastic Coordinate Descent
- Title(参考訳): 微分的にプライベートな確率座標降下
- Authors: Georgios Damaskinos, Celestine Mendler-D\"unner, Rachid Guerraoui,
Nikolaos Papandreou, Thomas Parnell
- Abstract要約: DP-SCDは、最初の微分プライベート座標降下アルゴリズムである。
我々は、コーディネート更新の分離と並列化が、そのユーティリティに不可欠であると主張している。
- 参考スコア(独自算出の注目度): 11.40366911494052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we tackle the challenge of making the stochastic coordinate
descent algorithm differentially private. Compared to the classical gradient
descent algorithm where updates operate on a single model vector and controlled
noise addition to this vector suffices to hide critical information about
individuals, stochastic coordinate descent crucially relies on keeping
auxiliary information in memory during training. This auxiliary information
provides an additional privacy leak and poses the major challenge addressed in
this work. Driven by the insight that under independent noise addition, the
consistency of the auxiliary information holds in expectation, we present
DP-SCD, the first differentially private stochastic coordinate descent
algorithm. We analyze our new method theoretically and argue that decoupling
and parallelizing coordinate updates is essential for its utility. On the
empirical side we demonstrate competitive performance against the popular
stochastic gradient descent alternative (DP-SGD) while requiring significantly
less tuning.
- Abstract(参考訳): 本稿では,確率座標降下アルゴリズムを微分プライベートにするという課題に挑戦する。
従来の勾配降下アルゴリズムでは、更新が1つのモデルベクトル上で動作し、このベクトルにノイズを加えることで個人に関する重要な情報を隠蔽するが、確率座標降下はトレーニング中に補助情報をメモリに保持することに大きく依存する。
この補助情報は、さらなるプライバシー漏洩をもたらし、この作業で対処される大きな課題を提起する。
独立雑音付加の下では、補助情報の整合性は期待通りに保たれるという知見により、DP-SCDは、最初の微分プライベート確率座標降下アルゴリズムである。
提案手法を理論的に解析し,コーディネート更新の分離と並列化が有用であると主張している。
経験的側面では、一般的な確率勾配降下代替(DP-SGD)に対して、チューニングを著しく少なくして競合性能を示す。
関連論文リスト
- Differential Privacy Regularization: Protecting Training Data Through Loss Function Regularization [49.1574468325115]
ニューラルネットワークに基づく機械学習モデルのトレーニングには、機密情報を含む大きなデータセットが必要である。
差分的にプライベートなSGD [DP-SGD] は、新しいモデルをトレーニングするために標準勾配降下アルゴリズム(SGD)を変更する必要がある。
より効率的な方法で同じ目標を達成するための新しい正規化戦略が提案されている。
論文 参考訳(メタデータ) (2024-09-25T17:59:32Z) - Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - Differentially Private Learning with Per-Sample Adaptive Clipping [8.401653565794353]
非単調適応重み関数に基づくDP-PSACアルゴリズムを提案する。
DP-PSACは,複数のメインストリームビジョンや言語タスクにおいて,最先端の手法よりも優れ,あるいは適合していることを示す。
論文 参考訳(メタデータ) (2022-12-01T07:26:49Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Differentially Private Coordinate Descent for Composite Empirical Risk
Minimization [13.742100810492014]
機械学習モデルは、トレーニングに使用されるデータに関する情報をリークすることができる。
Differentially Private (DP) のGradient Descent (DP-SGD) のような最適化アルゴリズムは、これを緩和するために設計されている。
差分的私的リスク最小化法(DP-ERM: Differentially Private Coordinate Descent:DP-CD)を提案する。
論文 参考訳(メタデータ) (2021-10-22T10:22:48Z) - Private Weighted Random Walk Stochastic Gradient Descent [21.23973736418492]
グラフ内のノードに分散したデータを分散する分散学習環境を考える。
本稿では,データの一様サンプリングと重要サンプリングという2種類のランダムウォークに基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-03T16:52:13Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Detached Error Feedback for Distributed SGD with Random Sparsification [98.98236187442258]
コミュニケーションのボトルネックは、大規模なディープラーニングにおいて重要な問題である。
非効率な分散問題に対する誤りフィードバックよりも優れた収束性を示す分散誤差フィードバック(DEF)アルゴリズムを提案する。
また、DEFよりも優れた境界を示すDEFの一般化を加速するDEFAを提案する。
論文 参考訳(メタデータ) (2020-04-11T03:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。