論文の概要: On the Sample Complexity of Privately Learning Unbounded
High-Dimensional Gaussians
- arxiv url: http://arxiv.org/abs/2010.09929v1
- Date: Mon, 19 Oct 2020 23:55:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 21:40:18.796862
- Title: On the Sample Complexity of Privately Learning Unbounded
High-Dimensional Gaussians
- Title(参考訳): 有限学習非有界高次元ガウスのサンプル複雑性について
- Authors: Ishaq Aden-Ali, Hassan Ashtiani, Gautam Kamath
- Abstract要約: これらは、分布のパラメータに制限を課さない一般ガウス群に対する最初の有限標本上界である。
技術的な観点からは、この空間の局所被覆からグローバルな「局所的に小さい」被覆の存在を論じる分析ツールを提供する。
我々の手法は、有限被覆を持たない他の分布クラスをプライベートに学習するのに有用である。
- 参考スコア(独自算出の注目度): 13.517767928653443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We provide sample complexity upper bounds for agnostically learning
multivariate Gaussians under the constraint of approximate differential
privacy. These are the first finite sample upper bounds for general Gaussians
which do not impose restrictions on the parameters of the distribution. Our
bounds are near-optimal in the case when the covariance is known to be the
identity, and conjectured to be near-optimal in the general case. From a
technical standpoint, we provide analytic tools for arguing the existence of
global "locally small" covers from local covers of the space. These are
exploited using modifications of recent techniques for differentially private
hypothesis selection. Our techniques may prove useful for privately learning
other distribution classes which do not possess a finite cover.
- Abstract(参考訳): 近似微分プライバシーの制約の下で多変量ガウス方程式を学習するためのサンプル複雑性上限を提供する。
これらは、分布のパラメータに制限を課さない一般ガウス群に対する最初の有限標本上界である。
我々の境界は共変性が同一性であることが知られている場合においてほぼ最適であり、一般の場合では準最適であると推測される。
技術的な観点からは、この空間の局所被覆からグローバルな「局所的に小さい」被覆の存在を論じる分析ツールを提供する。
これらは、微分プライベートな仮説選択のための最近の手法の修正を用いて悪用される。
この手法は有限被覆を持たない他の分布クラスをプライベートに学習するのに有用である。
関連論文リスト
- Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Riemannian stochastic optimization methods avoid strict saddle points [68.80251170757647]
研究中のポリシーは、確率 1 の厳密なサドル点/部分多様体を避けていることを示す。
この結果は、アルゴリズムの極限状態が局所最小値にしかならないことを示すため、重要な正当性チェックを提供する。
論文 参考訳(メタデータ) (2023-11-04T11:12:24Z) - Generalized Schrödinger Bridge Matching [54.171931505066]
一般化Schr"odinger Bridge (GSB) 問題設定は、機械学習の内外を問わず、多くの科学領域で一般的である。
我々は最近の進歩に触発された新しいマッチングアルゴリズムである一般化シュリンガーブリッジマッチング(GSBM)を提案する。
このような一般化は条件最適制御の解法として、変分近似を用いることができることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:42:11Z) - A General Recipe for the Analysis of Randomized Multi-Armed Bandit Algorithms [14.33758865948252]
我々は2つの有名なバンディットアルゴリズム、Minimum Empirical Divergence (MED)とThompson Sampling (TS)を再検討する。
MEDがこれらのモデルすべてに最適であることを示すとともに、最適性がすでに知られているTSアルゴリズムの簡単な後悔解析も提供する。
論文 参考訳(メタデータ) (2023-03-10T16:43:48Z) - Simple Binary Hypothesis Testing under Local Differential Privacy and
Communication Constraints [8.261182037130407]
局所差分プライバシー (LDP) と通信制約の両面から, 単純な二分仮説テストについて検討する。
我々はその結果をミニマックス最適かインスタンス最適かのどちらかとみなす。
論文 参考訳(メタデータ) (2023-01-09T18:36:49Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Learning Algorithm Generalization Error Bounds via Auxiliary Distributions [16.44492672878356]
一般化エラー境界は、機械学習モデルがどのように機能するかを理解するのに不可欠である。
そこで本研究では,Auxiliary Distribution Methodという新たな手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T10:37:04Z) - New Lower Bounds for Private Estimation and a Generalized Fingerprinting
Lemma [10.176795938619417]
統計的推定タスクの新たな下限を$(varepsilon, delta)$-differential privacyの制約の下で証明する。
フロベニウスノルムの推定には$Omega(d2)$サンプルが必要であり、スペクトルノルムでは$Omega(d3/2)$サンプルが必要である。
論文 参考訳(メタデータ) (2022-05-17T17:55:10Z) - Minibatch vs Local SGD with Shuffling: Tight Convergence Bounds and
Beyond [63.59034509960994]
シャッフルに基づく変種(ミニバッチと局所ランダムリシャッフル)について検討する。
ポリアック・ロジャシエヴィチ条件を満たす滑らかな函数に対して、これらのシャッフル型不変量(英語版)(shuffling-based variants)がそれらの置換式よりも早く収束することを示す収束境界を得る。
我々は, 同期シャッフル法と呼ばれるアルゴリズムの修正を提案し, ほぼ均一な条件下では, 下界よりも収束速度が速くなった。
論文 参考訳(メタデータ) (2021-10-20T02:25:25Z) - Compressive Privatization: Sparse Distribution Estimation under Locally
Differentially Privacy [18.43218511751587]
対象の分布がスパースかほぼスパースである限り、必要なサンプルの数は大幅に削減できることを示した。
我々のメカニズムは民営化と次元化を同時に行い、サンプルの複雑さは次元化の減少にのみ依存する。
論文 参考訳(メタデータ) (2020-12-03T17:14:23Z) - A Boundary Based Out-of-Distribution Classifier for Generalized
Zero-Shot Learning [83.1490247844899]
Generalized Zero-Shot Learning (GZSL)は多くの現実的なシナリオにおいて有望な見通しを持つ挑戦的なトピックである。
本研究では,見知らぬ領域を学習用サンプルのみを用いて分類する境界に基づくアウト・オブ・ディストリビューション(OOD)分類器を提案する。
我々は、AWA1、AWA2、CUB、FLO、SUNを含む5つの人気のあるベンチマークデータセットに対して、我々のアプローチを広範囲に検証する。
論文 参考訳(メタデータ) (2020-08-09T11:27:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。