論文の概要: Differentially Private Quantiles
- arxiv url: http://arxiv.org/abs/2102.08244v1
- Date: Tue, 16 Feb 2021 16:02:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 14:49:51.401392
- Title: Differentially Private Quantiles
- Title(参考訳): 異なるプライベートクアンティル
- Authors: Jennifer Gillenwater, Matthew Joseph, Alex Kulesza
- Abstract要約: 我々は,$n$のデータポイントから$m$quantilesを同時に推定する指数的メカニズムの例を提案する。
本手法は, 実データと合成データの両方において, 技術の現状を著しく上回っている。
- 参考スコア(独自算出の注目度): 12.917299605014419
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantiles are often used for summarizing and understanding data. If that data
is sensitive, it may be necessary to compute quantiles in a way that is
differentially private, providing theoretical guarantees that the result does
not reveal private information. However, in the common case where multiple
quantiles are needed, existing differentially private algorithms scale poorly:
they compute each quantile individually, splitting their privacy budget and
thus decreasing accuracy. In this work we propose an instance of the
exponential mechanism that simultaneously estimates $m$ quantiles from $n$ data
points while guaranteeing differential privacy. The utility function is
carefully structured to allow for an efficient implementation that avoids
exponential dependence on $m$ and returns estimates of all $m$ quantiles in
time $O(mn^2 + m^2n)$. Experiments show that our method significantly
outperforms the current state of the art on both real and synthetic data while
remaining efficient enough to be practical.
- Abstract(参考訳): 量子はしばしばデータの要約と理解に使用される。
そのデータが敏感な場合、差分プライベートな方法で量子単位を計算する必要があり、その結果が個人情報を明らかにしないという理論的保証を提供する。
しかし、複数の量子化が必要な一般的な場合、既存の微分プライベートアルゴリズムは、個々の量子化を個別に計算し、プライバシ予算を分割し、精度を低下させる。
本研究では,n$データポイントから$m$ quantilesを推定すると同時に,差分プライバシを保証した指数関数機構のインスタンスを提案する。
ユーティリティ関数は慎重に構成されており、$m$への指数依存を避け、$O(mn^2 + m^2n)$の時間内のすべての$m$量子化の推定を返す効率的な実装を可能にする。
実験の結果,本手法は実データと合成データの両方において,実用上十分な効率を保ちながら,技術の現状を著しく上回っていることがわかった。
関連論文リスト
- Efficiently Computing Similarities to Private Datasets [19.99000806126529]
微分プライベートモデルトレーニングの多くの方法は、クエリポイント(公開データや合成データなど)とプライベートデータとの類似性を計算することに依存している。
類似関数$f$と大きな高次元プライベートデータセット$XサブセットmathbbRd$を与えられた場合、任意のクエリ$y$に対して、X f(x,y)$のsum_xを近似した差分プライベート(DP)データ構造を出力する。
論文 参考訳(メタデータ) (2024-03-13T19:19:19Z) - Unbounded Differentially Private Quantile and Maximum Estimation [2.855485723554975]
単純な$textttAboveThreshold$の呼び出しは、最高の量子化に対してより正確でロバストな見積もりを提供する。
我々は、textttAboveThreshold$を改良することで、広く使われているスパースベクトルテクニックのプライバシー保証を改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-02T03:23:07Z) - Privacy Induces Robustness: Information-Computation Gaps and Sparse Mean
Estimation [8.9598796481325]
本稿では, アルゴリズムと計算複雑性の両面において, 異なる統計問題に対する観測結果について検討する。
プライベートスパース平均推定のための情報計算ギャップを確立する。
また、プライバシーによって引き起こされる情報計算のギャップを、いくつかの統計や学習問題に対して証明する。
論文 参考訳(メタデータ) (2022-11-01T20:03:41Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Scalable Differentially Private Clustering via Hierarchically Separated
Trees [82.69664595378869]
我々は,最大$O(d3/2log n)cdot OPT + O(k d2 log2 n / epsilon2)$,$epsilon$はプライバシ保証であることを示す。
最悪の場合の保証は、最先端のプライベートクラスタリング手法よりも悪いが、提案するアルゴリズムは実用的である。
論文 参考訳(メタデータ) (2022-06-17T09:24:41Z) - Brain Image Synthesis with Unsupervised Multivariate Canonical
CSC$\ell_4$Net [122.8907826672382]
我々は,新しいCSC$ell_4$Netを用いて,イントレとイントラモーダルの両方にまたがる専用特徴を学習することを提案する。
論文 参考訳(メタデータ) (2021-03-22T05:19:40Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Learning discrete distributions: user vs item-level privacy [47.05234904407048]
近年,フェデレート学習のような実践的なアプリケーションでは,単一ユーザのすべての項目に対するプライバシ保護が求められている。
ユーザレベルの差分プライバシーを持つシンボルを$k$で学習する際の基本的な問題について検討する。
ユーザ数が$tildemathcalO(k/(malpha2) + k/sqrtmepsilonalpha)$とスケールする仕組みを提案する。
論文 参考訳(メタデータ) (2020-07-27T16:15:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。