論文の概要: Agnostic Private Density Estimation via Stable List Decoding
- arxiv url: http://arxiv.org/abs/2407.04783v1
- Date: Fri, 5 Jul 2024 18:00:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 22:36:40.234670
- Title: Agnostic Private Density Estimation via Stable List Decoding
- Title(参考訳): 安定リストデコーディングによる非依存的個人密度推定
- Authors: Mohammad Afzali, Hassan Ashtiani, Christopher Liaw,
- Abstract要約: 分布のクラスが安定なリストデオード可能であれば、非依存的な設定でプライベートに学習できることが示される。
筆者らのフレームワークの主用途として, 私的密度推定のサンプル複雑性に関する最初の上限を証明した。
- 参考スコア(独自算出の注目度): 9.649879910148854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new notion of stability--which we call stable list decoding--and demonstrate its applicability in designing differentially private density estimators. This definition is weaker than global stability [ABLMM22] and is related to the notions of replicability [ILPS22] and list replicability [CMY23]. We show that if a class of distributions is stable list decodable, then it can be learned privately in the agnostic setting. As the main application of our framework, we prove the first upper bound on the sample complexity of private density estimation for Gaussian Mixture Models in the agnostic setting, extending the realizable result of Afzali et al. [AAL24].
- Abstract(参考訳): 安定リストデコーディング(stable list decoding)と呼ばれる新しい安定性の概念を導入し、微分プライベート密度推定器の設計への適用性を実証する。
この定義は、大域的安定性 [ABLMM22] よりも弱く、複製性 [ILPS22] とリスト複製性 [CMY23] の概念と関連している。
分布のクラスが安定なリストデオード可能であれば、非依存的な設定でプライベートに学習できることが示される。
筆者らのフレームワークの主な応用として,ガウス混合モデル(Gaussian Mixture Models, Afzali et al [AAL24])における個人密度推定のサンプル複雑性に関する最初の上限を証明し,Afzaliらによる実現可能な結果を拡張した。
関連論文リスト
- SGMM: Stochastic Approximation to Generalized Method of Moments [8.48870560391056]
本稿では,モーメントの一般化法 (Generalized Method of Moments, SGMM) というアルゴリズムを導入し, モーメント制約モデルの推定と推定を行う。
我々のSGMMは、人気のあるHansen (1982) (オフライン) GMMの新たな近似であり、ストリーミングデータセットをリアルタイムに処理できる高速でスケーラブルな実装を提供する。
論文 参考訳(メタデータ) (2023-08-25T00:22:45Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Polynomial Time and Private Learning of Unbounded Gaussian Mixture
Models [9.679150363410471]
本稿では,$d$-dimensional Gaussian Mixture Models (GMM) のパラメータを$k$コンポーネントでプライベートに推定する問題について検討する。
我々はその問題を非私的な問題に還元する手法を開発した。
我々は,Moitra Valiant と[MV10] の非プライベートアルゴリズムを用いて,GMM をブラックボックスとして学習するための$(varepsilon, delta)$-differentially privateアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-03-07T23:24:27Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - Differentially private multivariate medians [4.588028371034407]
差分的にプライベートな深度に基づく中央値に対する新しい有限サンプル性能保証法を開発した。
Cauchyの限界の下では、重み付けされた位置推定のコストがプライバシーのコストよりも高いことを示している。
論文 参考訳(メタデータ) (2022-10-12T17:56:04Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Benign Underfitting of Stochastic Gradient Descent [72.38051710389732]
本研究では,適切な学習データを得ることで,一般化性能を実現する「従来型」学習ルールとして,勾配降下度(SGD)がどの程度理解されるかを検討する。
類似現象が起こらない近縁な交換SGDを解析し、その集団リスクが実際に最適な速度で収束することを証明する。
論文 参考訳(メタデータ) (2022-02-27T13:25:01Z) - Uncertainty-aware INVASE: Enhanced Breast Cancer Diagnosis Feature
Selection [8.469461306404487]
医療問題の予測的信頼性を定量化する不確実性認識指標を提示する。
UCI-WDBCデータセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2021-05-04T21:30:33Z) - A Central Limit Theorem for Differentially Private Query Answering [23.015107368002884]
プライバシパラメータの積を示し、そのメカニズムの$ell$-lossは次元によって境界が低くなることを示す。
私たちの発見は数値実験によって裏付けられる。
論文 参考訳(メタデータ) (2021-03-15T21:06:25Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Agnostic Proper Learning of Halfspaces under Gaussian Marginals [56.01192577666607]
ガウスの下の半空間を不可知的に学習する問題を考察する。
我々の主な成果は、この問題に対するエム第一固有学習アルゴリズムである。
論文 参考訳(メタデータ) (2021-02-10T18:40:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。