論文の概要: DPVIm: Differentially Private Variational Inference Improved
- arxiv url: http://arxiv.org/abs/2210.15961v1
- Date: Fri, 28 Oct 2022 07:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:48:47.178586
- Title: DPVIm: Differentially Private Variational Inference Improved
- Title(参考訳): DPVIm: 個人差分変動推論の改善
- Authors: Joonas J\"alk\"o, Lukas Prediger, Antti Honkela, and Samuel Kaski
- Abstract要約: 多次元統計学の微分プライベート(DP)リリースは、一般的に集合感度を考える。
そのベクトルの次元は様々であり、従ってDP摂動は次元をまたいだ信号に不均等に影響を及ぼす。
変分推論(VI)に用いた場合、DP-SGDアルゴリズムの勾配解法でこの問題を観測する(VI)。
- 参考スコア(独自算出の注目度): 13.761202518891329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentially private (DP) release of multidimensional statistics typically
considers an aggregate sensitivity, e.g. the vector norm of a high-dimensional
vector. However, different dimensions of that vector might have widely
different magnitudes and therefore DP perturbation disproportionately affects
the signal across dimensions. We observe this problem in the gradient release
of the DP-SGD algorithm when using it for variational inference (VI), where it
manifests in poor convergence as well as high variance in outputs for certain
variational parameters, and make the following contributions: (i) We
mathematically isolate the cause for the difference in magnitudes between
gradient parts corresponding to different variational parameters. Using this as
prior knowledge we establish a link between the gradients of the variational
parameters, and propose an efficient while simple fix for the problem to obtain
a less noisy gradient estimator, which we call $\textit{aligned}$ gradients.
This approach allows us to obtain the updates for the covariance parameter of a
Gaussian posterior approximation without a privacy cost. We compare this to
alternative approaches for scaling the gradients using analytically derived
preconditioning, e.g. natural gradients. (ii) We suggest using iterate
averaging over the DP parameter traces recovered during the training, to reduce
the DP-induced noise in parameter estimates at no additional cost in privacy.
Finally, (iii) to accurately capture the additional uncertainty DP introduces
to the model parameters, we infer the DP-induced noise from the parameter
traces and include that in the learned posteriors to make them $\textit{noise
aware}$. We demonstrate the efficacy of our proposed improvements through
various experiments on real data.
- Abstract(参考訳): 多次元統計の微分プライベート(dp)リリースは一般に、例えば高次元ベクトルのベクトルノルムのような集合感度を考える。
しかし、そのベクトルの異なる次元は幅広い大きさを持つため、DP摂動は次元をまたいだ信号に不均等に影響を及ぼす。
この問題は、変分推論(VI)に用いたDP-SGDアルゴリズムの勾配リリースにおいて観測され、そこでは、収差が低く、特定の変分パラメータの出力に高いばらつきがあり、次のような貢献をする。
(i)異なる変分パラメータに対応する勾配部間の等級差の原因を数学的に分離する。
これを事前知識として、変分パラメータの勾配間のリンクを確立し、よりノイズの少ない勾配推定器を得るために、問題を効率的かつ簡単な修正を提案し、これを $\textit{aligned}$ gradients と呼ぶ。
このアプローチにより、プライバシーコストを伴わずにガウス後続近似の共分散パラメータの更新が得られる。
これを解析的に導出した事前条件、例えば自然勾配を用いて勾配をスケーリングする別のアプローチと比較する。
(II) トレーニング中に得られたDPパラメータートレースの反復平均化を用いて, パラメーター推定におけるDP誘発ノイズを, 追加のプライバシを伴わずに低減することを提案する。
最後に
(iii)モデルパラメータに導入される追加の不確実性dpを正確に把握するために、パラメータトレースからdpによるノイズを推定し、学習した後方に$\textit{noise aware}$ を付与する。
提案手法の有効性を実データを用いた各種実験により実証した。
関連論文リスト
- A Bayesian Approach Toward Robust Multidimensional Ellipsoid-Specific Fitting [0.0]
本研究は, ノイズおよび外周波の汚染における散乱データに多次元楕円体を適合させる, 新規で効果的な方法を提案する。
楕円体領域内でのプリミティブパラメータの探索を制約するために、均一な事前分布を組み込む。
本研究では, 顕微鏡細胞計数, 3次元再構成, 幾何学的形状近似, 磁力計の校正タスクなど, 幅広い応用に応用する。
論文 参考訳(メタデータ) (2024-07-27T14:31:51Z) - Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - Differentially Private SGD Without Clipping Bias: An Error-Feedback Approach [62.000948039914135]
Differentially Private Gradient Descent with Gradient Clipping (DPSGD-GC) を使用して、差分プライバシ(DP)がモデルパフォーマンス劣化の犠牲となることを保証する。
DPSGD-GCに代わる新しいエラーフィードバック(EF)DPアルゴリズムを提案する。
提案アルゴリズムに対するアルゴリズム固有のDP解析を確立し,R'enyi DPに基づくプライバシ保証を提供する。
論文 参考訳(メタデータ) (2023-11-24T17:56:44Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - MSTGD:A Memory Stochastic sTratified Gradient Descent Method with an
Exponential Convergence Rate [0.0]
本稿では,指数収束率を持つ新しいアンダーラインメモリStochastic sunderlineTratified Gradient Descend(underlineMSTGD)アルゴリズムを設計する。
特に、MSTGDは2つの分散還元戦略を用いており、第1の戦略は、使用履歴勾配の比例pに応じて分散還元を行うことである。
指数収束率を達成すると主張する他のほとんどのアルゴリズムとは異なり、収束率はデータセットサイズN、バッチサイズnなどのパラメータとは独立である。
論文 参考訳(メタデータ) (2022-02-21T01:36:26Z) - Improving Differentially Private SGD via Randomly Sparsified Gradients [31.295035726077366]
ディファレンシャル・プライベート・グラデーション・オブザーバ(DP-SGD)は、厳密に定義されたプライバシー境界圧縮を提供するため、ディープラーニングにおいて広く採用されている。
本稿では,通信コストを向上し,プライバシ境界圧縮を強化するためのRSを提案する。
論文 参考訳(メタデータ) (2021-12-01T21:43:34Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z) - Differentially Private Variational Autoencoders with Term-wise Gradient
Aggregation [12.880889651679094]
差分プライバシー制約の下で,様々な相違点を持つ変分オートエンコーダの学習方法について検討する。
損失項の構成に合わせてランダム化勾配を2つの異なる方法で作成する項ワイズDP-SGDを提案する。
論文 参考訳(メタデータ) (2020-06-19T16:12:28Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。