論文の概要: Agnostic Private Density Estimation for GMMs via List Global Stability
- arxiv url: http://arxiv.org/abs/2407.04783v2
- Date: Sun, 6 Oct 2024 22:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 23:35:45.243570
- Title: Agnostic Private Density Estimation for GMMs via List Global Stability
- Title(参考訳): リストグローバル安定性を用いたGMMの非依存的個人密度推定
- Authors: Mohammad Afzali, Hassan Ashtiani, Christopher Liaw,
- Abstract要約: 制約のない高次元ガウス多様体の混合に対する個人密度推定の問題を考える。
この問題のサンプル複雑性に関する最初の上限を証明した。
そして、GMMのためのグローバルに安定な学習者リストを構築する。
- 参考スコア(独自算出の注目度): 9.649879910148854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of private density estimation for mixtures of unrestricted high dimensional Gaussians in the agnostic setting. We prove the first upper bound on the sample complexity of this problem. Previously, private learnability of high dimensional GMMs was only known in the realizable setting [Afzali et al., 2024]. To prove our result, we exploit the notion of $\textit{list global stability}$ [Ghazi et al., 2021b,a] that was originally introduced in the context of private supervised learning. We define an agnostic variant of this definition, showing that its existence is sufficient for agnostic private density estimation. We then construct an agnostic list globally stable learner for GMMs.
- Abstract(参考訳): 制約のない高次元ガウス多様体の混合に対する個人密度推定の問題を考える。
この問題のサンプル複雑性に関する最初の上限を証明した。
従来,高次元GMMの個人学習性は,実現可能な設定 [Afzali et al , 2024] でのみ知られていた。
この結果を証明するために,私的な教師あり学習の文脈で導入された$\textit{list global stability}$ [Ghazi et al , 2021b,a]という概念を利用する。
この定義の無関係な変種を定義し、その存在が無関係な私的密度推定に十分であることを示す。
そして、GMMのためのグローバルに安定な学習者リストを構築する。
関連論文リスト
- SGMM: Stochastic Approximation to Generalized Method of Moments [8.48870560391056]
本稿では,モーメントの一般化法 (Generalized Method of Moments, SGMM) というアルゴリズムを導入し, モーメント制約モデルの推定と推定を行う。
我々のSGMMは、人気のあるHansen (1982) (オフライン) GMMの新たな近似であり、ストリーミングデータセットをリアルタイムに処理できる高速でスケーラブルな実装を提供する。
論文 参考訳(メタデータ) (2023-08-25T00:22:45Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Polynomial Time and Private Learning of Unbounded Gaussian Mixture
Models [9.679150363410471]
本稿では,$d$-dimensional Gaussian Mixture Models (GMM) のパラメータを$k$コンポーネントでプライベートに推定する問題について検討する。
我々はその問題を非私的な問題に還元する手法を開発した。
我々は,Moitra Valiant と[MV10] の非プライベートアルゴリズムを用いて,GMM をブラックボックスとして学習するための$(varepsilon, delta)$-differentially privateアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-03-07T23:24:27Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - Differentially private multivariate medians [4.588028371034407]
差分的にプライベートな深度に基づく中央値に対する新しい有限サンプル性能保証法を開発した。
Cauchyの限界の下では、重み付けされた位置推定のコストがプライバシーのコストよりも高いことを示している。
論文 参考訳(メタデータ) (2022-10-12T17:56:04Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Benign Underfitting of Stochastic Gradient Descent [72.38051710389732]
本研究では,適切な学習データを得ることで,一般化性能を実現する「従来型」学習ルールとして,勾配降下度(SGD)がどの程度理解されるかを検討する。
類似現象が起こらない近縁な交換SGDを解析し、その集団リスクが実際に最適な速度で収束することを証明する。
論文 参考訳(メタデータ) (2022-02-27T13:25:01Z) - Uncertainty-aware INVASE: Enhanced Breast Cancer Diagnosis Feature
Selection [8.469461306404487]
医療問題の予測的信頼性を定量化する不確実性認識指標を提示する。
UCI-WDBCデータセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2021-05-04T21:30:33Z) - A Central Limit Theorem for Differentially Private Query Answering [23.015107368002884]
プライバシパラメータの積を示し、そのメカニズムの$ell$-lossは次元によって境界が低くなることを示す。
私たちの発見は数値実験によって裏付けられる。
論文 参考訳(メタデータ) (2021-03-15T21:06:25Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Agnostic Proper Learning of Halfspaces under Gaussian Marginals [56.01192577666607]
ガウスの下の半空間を不可知的に学習する問題を考察する。
我々の主な成果は、この問題に対するエム第一固有学習アルゴリズムである。
論文 参考訳(メタデータ) (2021-02-10T18:40:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。