論文の概要: Differentially Private (Gradient) Expectation Maximization Algorithm
with Statistical Guarantees
- arxiv url: http://arxiv.org/abs/2010.13520v3
- Date: Sun, 16 Jan 2022 22:00:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 06:13:11.800124
- Title: Differentially Private (Gradient) Expectation Maximization Algorithm
with Statistical Guarantees
- Title(参考訳): 統計的保証付き微分プライベート(グラディエント)予測最大化アルゴリズム
- Authors: Di Wang and Jiahao Ding and Lijie Hu and Zejun Xie and Miao Pan and
Jinhui Xu
- Abstract要約: (グラディエント)期待最大化(EM)は、混合モデルや不完全データ問題の最大確率を推定するアルゴリズムである。
この問題に関するこれまでの研究は、既に(グラディエント)EMのための微分プライベート(DP)アルゴリズムの発見につながっている。
本稿では,統計的保証付き(グラディエント)EMアルゴリズムの最初のDPバージョンを提案する。
- 参考スコア(独自算出の注目度): 25.996994681543903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: (Gradient) Expectation Maximization (EM) is a widely used algorithm for
estimating the maximum likelihood of mixture models or incomplete data
problems. A major challenge facing this popular technique is how to effectively
preserve the privacy of sensitive data. Previous research on this problem has
already lead to the discovery of some Differentially Private (DP) algorithms
for (Gradient) EM. However, unlike in the non-private case, existing techniques
are not yet able to provide finite sample statistical guarantees. To address
this issue, we propose in this paper the first DP version of (Gradient) EM
algorithm with statistical guarantees. Moreover, we apply our general framework
to three canonical models: Gaussian Mixture Model (GMM), Mixture of Regressions
Model (MRM) and Linear Regression with Missing Covariates (RMC). Specifically,
for GMM in the DP model, our estimation error is near optimal in some cases.
For the other two models, we provide the first finite sample statistical
guarantees. Our theory is supported by thorough numerical experiments.
- Abstract(参考訳): (卒業)
予測最大化(英: expectation Maximization, EM)は、混合モデルや不完全データ問題の最大値を推定するアルゴリズムである。
この一般的なテクニックに直面する大きな課題は、機密データのプライバシーを効果的に保持する方法である。
この問題に関するこれまでの研究は、既に(グラディエント)EMのための微分プライベート(DP)アルゴリズムの発見につながっている。
しかし、非民間の場合とは異なり、既存の手法はまだ有限サンプル統計保証を提供していない。
この問題に対処するため,本論文では,統計的保証付き(段階的)emアルゴリズムの最初のdp版を提案する。
さらに, ガウス混合モデル (gmm) , 回帰モデル (mrm) の混合, 共変量の欠如を伴う線形回帰モデル (rmc) の3つの標準モデルに適用した。
具体的には,DPモデルにおけるGMMでは,推定誤差がほぼ最適である場合がある。
他の2つのモデルに対して、最初の有限サンプル統計保証を提供する。
我々の理論は徹底的な数値実験によって支持されている。
関連論文リスト
- Best Arm Identification with Fixed Budget: A Large Deviation Perspective [54.305323903582845]
我々は、様々な武器の報酬間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
特に、様々な武器の報酬の間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
論文 参考訳(メタデータ) (2023-12-19T13:17:43Z) - Generating Private Synthetic Data with Genetic Algorithms [29.756119782419955]
基礎となる機密データセットの統計特性を近似した微分プライベートな合成データを効率的に生成する問題について検討する。
ゼロ階最適化に基づく遺伝的アルゴリズムであるPrivate-GSDを提案する。
そこで,Private-GSDは,非微分クエリにおいて,微分可能なクエリを近似する精度で,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T21:19:37Z) - An Application of a Multivariate Estimation of Distribution Algorithm to
Cancer Chemotherapy [59.40521061783166]
癌に対する化学療法治療は、多数の相互作用する変数と制約を持つ複雑な最適化問題である。
より洗練されたアルゴリズムは、このような複雑な問題に対してより良いパフォーマンスをもたらすことが示される。
我々は、この問題における多数の相互作用によって、より洗練されたアルゴリズムが妨げられていることが原因であると仮定する。
論文 参考訳(メタデータ) (2022-05-17T15:28:46Z) - DPER: Efficient Parameter Estimation for Randomly Missing Data [0.24466725954625884]
本稿では,1クラス・複数クラスのランダムに欠落したデータセットに対して,最大推定値(MLE)を求めるアルゴリズムを提案する。
我々のアルゴリズムは、データを通して複数のイテレーションを必要としないので、他の方法よりも時間のかかることを約束します。
論文 参考訳(メタデータ) (2021-06-06T16:37:48Z) - High-Dimensional Differentially-Private EM Algorithm: Methods and
Near-Optimal Statistical Guarantees [8.089708900273804]
高次元潜在変数モデルにおける差分プライベート期待最大化(EM)アルゴリズムを設計するための一般的なフレームワークを開発している。
各モデルにおいて、差分プライバシー制約による収束のほぼ最適度を確立する。
この設定では、差分プライバシーを保証する近レート最適EMアルゴリズムを提案します。
論文 参考訳(メタデータ) (2021-04-01T04:08:34Z) - Community Detection in the Stochastic Block Model by Mixed Integer
Programming [3.8073142980733]
Degree-Corrected Block Model (DCSBM) は、コミュニティ構造を持つランダムグラフを生成する一般的なモデルである。
DCSBMに基づくコミュニティ検出の標準的なアプローチは、最大推定(MLE)により観測されたネットワークデータを生成する可能性が最も高いモデルパラメータを探索することである。
本稿では,モデルパラメータと最大確率のコミュニティ割当を観測グラフから確実に求める数学的計画式と厳密解法を提案する。
論文 参考訳(メタデータ) (2021-01-26T22:04:40Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Robust Compressed Sensing using Generative Models [98.64228459705859]
本稿では,Median-of-Means (MOM) にヒントを得たアルゴリズムを提案する。
我々のアルゴリズムは、外れ値が存在する場合でも、重み付きデータの回復を保証する。
論文 参考訳(メタデータ) (2020-06-16T19:07:41Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。