論文の概要: Not All Learnable Distribution Classes are Privately Learnable
- arxiv url: http://arxiv.org/abs/2402.00267v1
- Date: Thu, 1 Feb 2024 01:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 17:03:37.843510
- Title: Not All Learnable Distribution Classes are Privately Learnable
- Title(参考訳): すべての学習可能な配布クラスがプライベートに学習できるわけではない
- Authors: Mark Bun, Gautam Kamath, Argyris Mouzakis, Vikrant Singhal
- Abstract要約: 有限個のサンプルで全変動距離で学習できる分布のクラスを例に挙げるが、$(varepsilon, delta)$-differential privacyでは学習できない。
- 参考スコア(独自算出の注目度): 22.1340807700791
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We give an example of a class of distributions that is learnable in total
variation distance with a finite number of samples, but not learnable under
$(\varepsilon, \delta)$-differential privacy. This refutes a conjecture of
Ashtiani.
- Abstract(参考訳): 有限個のサンプルで全変動距離で学習できる分布のクラスを例に挙げるが、$(\varepsilon, \delta)$-differential privacyでは学習できない。
これはアシュティアーニの予想を否定する。
関連論文リスト
- Uncertainty in Graph Contrastive Learning with Bayesian Neural Networks [101.56637264703058]
変分ベイズニューラルネットワークは不確実性推定を改善するために有効であることを示す。
比較学習における不確実性の新たな尺度を提案するが、これは異なる正のサンプルによる可能性の相違に基づくものである。
論文 参考訳(メタデータ) (2023-11-30T22:32:24Z) - Private Distribution Learning with Public Data: The View from Sample
Compression [15.626115475759713]
公共データへのアクセスによる個人分布学習の課題について検討する。
我々は,クラス$mathcal Q$のパブリックな学習性は,サンプル圧縮スキームの存在に関係していることを示す。
論文 参考訳(メタデータ) (2023-08-11T17:15:12Z) - Differentially Private Medians and Interior Points for Non-Pathological
Data [18.019754524164483]
我々は、非常に穏やかなモーメント条件を満たす$mathbbR$上の任意の分布の中央値を推定する微分プライベートな推定器を構築する。
FOCS 2015) では, 有限標本の複雑さを伴う差分プライベートな推定器が存在しないことが示唆された。
論文 参考訳(メタデータ) (2023-05-22T19:30:20Z) - StyleGenes: Discrete and Efficient Latent Distributions for GANs [149.0290830305808]
GAN(Generative Adversarial Networks)のための離散潜在分布を提案する。
連続的な先行点から潜在ベクトルを描く代わりに、学習可能な潜在点の有限集合からサンプリングする。
私たちは生物の情報のエンコーディングからインスピレーションを得ます。
論文 参考訳(メタデータ) (2023-04-30T23:28:46Z) - Differentially-Private Bayes Consistency [70.92545332158217]
差分プライバシー(DP)を満たすベイズ一貫した学習ルールを構築する。
ほぼ最適なサンプル複雑性を持つ半教師付き環境で,任意のVCクラスをプライベートに学習できることを実証する。
論文 参考訳(メタデータ) (2022-12-08T11:57:30Z) - Differentially Private Sampling from Distributions [1.452875650827562]
一部の体制では、プライベートサンプリングは非プライベートに$P$の記述を学ぶよりも少ない観察を必要とする。
分布のクラスによっては,非私的学習と比較して,私的学習に必要な観測回数のオーバーヘッドは,私的サンプリングに必要な観測回数によって完全に把握される。
論文 参考訳(メタデータ) (2022-11-15T14:56:42Z) - Learning versus Refutation in Noninteractive Local Differential Privacy [133.80204506727526]
非対話的局所差分プライバシー(LDP)における2つの基本的な統計課題について検討する。
本研究の主な成果は,非対話型LDPプロトコルにおけるPAC学習の複雑さの完全な評価である。
論文 参考訳(メタデータ) (2022-10-26T03:19:24Z) - Binary classification with ambiguous training data [69.50862982117127]
教師付き学習では、ドメインの専門家でさえラベル付けが難しい曖昧な(A)サンプルに直面します。
この問題は、ラベルなしサンプルが必ずしも難しいサンプルではないため、半教師付き学習とは大きく異なる。
論文 参考訳(メタデータ) (2020-11-05T00:53:58Z) - On the Sample Complexity of Privately Learning Unbounded
High-Dimensional Gaussians [13.517767928653443]
これらは、分布のパラメータに制限を課さない一般ガウス群に対する最初の有限標本上界である。
技術的な観点からは、この空間の局所被覆からグローバルな「局所的に小さい」被覆の存在を論じる分析ツールを提供する。
我々の手法は、有限被覆を持たない他の分布クラスをプライベートに学習するのに有用である。
論文 参考訳(メタデータ) (2020-10-19T23:55:03Z) - A Boundary Based Out-of-Distribution Classifier for Generalized
Zero-Shot Learning [83.1490247844899]
Generalized Zero-Shot Learning (GZSL)は多くの現実的なシナリオにおいて有望な見通しを持つ挑戦的なトピックである。
本研究では,見知らぬ領域を学習用サンプルのみを用いて分類する境界に基づくアウト・オブ・ディストリビューション(OOD)分類器を提案する。
我々は、AWA1、AWA2、CUB、FLO、SUNを含む5つの人気のあるベンチマークデータセットに対して、我々のアプローチを広範囲に検証する。
論文 参考訳(メタデータ) (2020-08-09T11:27:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。