論文の概要: Compressive Privatization: Sparse Distribution Estimation under Locally
Differentially Privacy
- arxiv url: http://arxiv.org/abs/2012.02081v1
- Date: Thu, 3 Dec 2020 17:14:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:01:17.769907
- Title: Compressive Privatization: Sparse Distribution Estimation under Locally
Differentially Privacy
- Title(参考訳): 圧縮民営化:局所微分プライバシー下での分散分布推定
- Authors: Zhongzheng Xiong, Zengfeng Huang, Xiaojun Mao, Jian Wang, Shan Ying
- Abstract要約: 対象の分布がスパースかほぼスパースである限り、必要なサンプルの数は大幅に削減できることを示した。
我々のメカニズムは民営化と次元化を同時に行い、サンプルの複雑さは次元化の減少にのみ依存する。
- 参考スコア(独自算出の注目度): 18.43218511751587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of discrete distribution estimation under locally
differential privacy. Distribution estimation is one of the most fundamental
estimation problems, which is widely studied in both non-private and private
settings. In the local model, private mechanisms with provably optimal sample
complexity are known. However, they are optimal only in the worst-case sense;
their sample complexity is proportional to the size of the entire universe,
which could be huge in practice (e.g., all IP addresses). We show that as long
as the target distribution is sparse or approximately sparse (e.g., highly
skewed), the number of samples needed could be significantly reduced. The
sample complexity of our new mechanism is characterized by the sparsity of the
target distribution and only weakly depends on the size the universe. Our
mechanism does privatization and dimensionality reduction simultaneously, and
the sample complexity will only depend on the reduced dimensionality. The
original distribution is then recovered using tools from compressive sensing.
To complement our theoretical results, we conduct experimental studies, the
results of which clearly demonstrate the advantages of our method and confirm
our theoretical findings.
- Abstract(参考訳): 地域差分プライバシー下での離散分布推定の問題点を考察する。
分布推定は最も基本的な推定問題の1つであり、非プライベートとプライベートの両方で広く研究されている。
局所モデルでは、最適なサンプル複雑性を証明できるプライベートメカニズムが知られている。
サンプルの複雑さは宇宙全体のサイズに比例しており、実際には巨大なもの(例えば、全てのipアドレス)である。
対象の分布がスパースまたはほぼスパースである限り(例えば、高度スキュード)、必要なサンプルの数は大幅に削減できることを示した。
新しいメカニズムのサンプルの複雑さは、ターゲット分布のスパース性によって特徴づけられ、宇宙の大きさに弱いだけである。
我々のメカニズムは民営化と次元化を同時に行い、サンプルの複雑さは次元化の減少にのみ依存する。
元の分布は圧縮センシングのツールを使って回収される。
理論的結果を補完するため,本手法の利点を明確に示す実験を行い,理論的な結果を確認する。
関連論文リスト
- Exactly Minimax-Optimal Locally Differentially Private Sampling [12.587817635325266]
最小限の意味でのプライベートサンプリングの基本的なPUTを定義し、元の分布とサンプリング分布のf分割を有効尺度として用いた。
有限データ空間と連続データ空間の両方の正確なPUTをデータ分布の温和な条件下で特徴付けるとともに、すべてのf-分岐に対して普遍的に最適であるサンプリング機構を提案する。
論文 参考訳(メタデータ) (2024-10-30T05:13:18Z) - Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Quantizing Heavy-tailed Data in Statistical Estimation: (Near) Minimax
Rates, Covariate Quantization, and Uniform Recovery [22.267482745621997]
本稿では,いくつかの統計的推定問題における重み付きデータの定量化について検討する。
我々は、均一な量子化の前にデータを切断し、適切に拡張することを提案する。
論文 参考訳(メタデータ) (2022-12-30T06:28:30Z) - Differentially Private Sampling from Distributions [1.452875650827562]
一部の体制では、プライベートサンプリングは非プライベートに$P$の記述を学ぶよりも少ない観察を必要とする。
分布のクラスによっては,非私的学習と比較して,私的学習に必要な観測回数のオーバーヘッドは,私的サンプリングに必要な観測回数によって完全に把握される。
論文 参考訳(メタデータ) (2022-11-15T14:56:42Z) - Differentially private multivariate medians [4.588028371034407]
差分的にプライベートな深度に基づく中央値に対する新しい有限サンプル性能保証法を開発した。
Cauchyの限界の下では、重み付けされた位置推定のコストがプライバシーのコストよりも高いことを示している。
論文 参考訳(メタデータ) (2022-10-12T17:56:04Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - BR-SNIS: Bias Reduced Self-Normalized Importance Sampling [11.150337082767862]
重要サンプリング(Importance Smpling、IS)とは、提案分布と関連する重要度から独立したサンプルを用いて、目標分布下での期待を近似する手法である。
本稿では,SNISの複雑さが本質的に同じであり,分散を増大させることなくバイアスを大幅に低減するBR-SNISを提案する。
提案アルゴリズムには、新しいバイアス、分散、高確率境界を含む厳密な理論的結果を与える。
論文 参考訳(メタデータ) (2022-07-13T17:14:10Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。