論文の概要: Minimax optimal goodness-of-fit testing for densities and multinomials
under a local differential privacy constraint
- arxiv url: http://arxiv.org/abs/2002.04254v3
- Date: Thu, 15 Apr 2021 07:12:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:45:09.353229
- Title: Minimax optimal goodness-of-fit testing for densities and multinomials
under a local differential privacy constraint
- Title(参考訳): 局所微分プライバシー制約下における密度と多項の最適最適適合性テスト
- Authors: Joseph Lam-Weil, B\'eatrice Laurent, Jean-Michel Loubes
- Abstract要約: 適合性テストにおける局所的な差分プライバシー制約の影響を考察する。
本稿では,未知密度の滑らか度パラメータに適応し,対数係数まで最小限の最適値を維持するテストを提案する。
- 参考スコア(独自算出の注目度): 3.265773263570237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding anonymization mechanisms to protect personal data is at the heart of
recent machine learning research. Here, we consider the consequences of local
differential privacy constraints on goodness-of-fit testing, i.e. the
statistical problem assessing whether sample points are generated from a fixed
density $f_0$, or not. The observations are kept hidden and replaced by a
stochastic transformation satisfying the local differential privacy constraint.
In this setting, we propose a testing procedure which is based on an estimation
of the quadratic distance between the density $f$ of the unobserved samples and
$f_0$. We establish an upper bound on the separation distance associated with
this test, and a matching lower bound on the minimax separation rates of
testing under non-interactive privacy in the case that $f_0$ is uniform, in
discrete and continuous settings. To the best of our knowledge, we provide the
first minimax optimal test and associated private transformation under a local
differential privacy constraint over Besov balls in the continuous setting,
quantifying the price to pay for data privacy. We also present a test that is
adaptive to the smoothness parameter of the unknown density and remains minimax
optimal up to a logarithmic factor. Finally, we note that our results can be
translated to the discrete case, where the treatment of probability vectors is
shown to be equivalent to that of piecewise constant densities in our setting.
That is why we work with a unified setting for both the continuous and the
discrete cases.
- Abstract(参考訳): 個人データを保護する匿名化メカニズムを見つけることは、最近の機械学習研究の核心にある。
ここでは,局所的微分プライバシー制約が適合度テストに与える影響,すなわち,固定密度$f_0$ からサンプルポイントが生成されるかどうかを評価する統計的問題について考察する。
観測結果は隠蔽され、局所的な差分プライバシー制約を満たす確率変換に置き換えられる。
本研究では,観測されていない試料の密度$f$と$f_0$との二次距離の推定に基づくテスト手順を提案する。
このテストに関連する分離距離の上限と、f_0$が離散的かつ連続的な設定の場合の非対話的プライバシの下でのテストの最小分離率の上限とを一致させる。
私たちの知る限りでは、最初のminimaxの最適テストと関連するプライベートトランスフォーメーションを、継続的な設定でbesovボール上の局所微分プライバシー制約の下で提供し、データプライバシの費用を定量化します。
また, 未知密度の滑らか度パラメータに適応し, 対数係数まで最小限に最適である試験も提案する。
最後に、この結果が離散の場合に変換可能であり、ここでは確率ベクトルの処理は、我々の設定における分次定数密度の処理と等価であることが示される。
そのため、連続ケースと離散ケースの両方を統一した設定で作業します。
関連論文リスト
- Minimax Optimal Two-Sample Testing under Local Differential Privacy [3.3317825075368908]
ローカルディファレンシャルプライバシ(LDP)の下でのプライベート2サンプルテストにおけるプライバシと統計ユーティリティのトレードオフについて検討する。
本稿では,Laplace,離散Laplace,GoogleのRAPPORなど,実用的なプライバシメカニズムを用いたプライベートな置換テストを紹介する。
我々は,ビンニングによる連続データの研究を行い,その一様分離率をH"olderとBesovの滑らか度クラスよりもLDPで検討した。
論文 参考訳(メタデータ) (2024-11-13T22:44:25Z) - Optimal Federated Learning for Nonparametric Regression with Heterogeneous Distributed Differential Privacy Constraints [5.3595271893779906]
本研究では,異なるサーバにまたがる分散サンプルのコンテキストにおける非パラメトリック回帰のためのフェデレーション学習について検討した。
統計の正確さとプライバシーの保護のトレードオフに光を当てている。
論文 参考訳(メタデータ) (2024-06-10T19:34:07Z) - Federated Nonparametric Hypothesis Testing with Differential Privacy Constraints: Optimal Rates and Adaptive Tests [5.3595271893779906]
フェデレート学習は、さまざまな場所でデータが収集され分析される広範囲な設定で適用可能であることから、近年大きな注目を集めている。
分散差分プライバシー(DP)制約下でのホワイトノイズ・ウィズ・ドリフトモデルにおける非パラメトリック適合性試験について検討した。
論文 参考訳(メタデータ) (2024-06-10T19:25:19Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Optimal Algorithms for Mean Estimation under Local Differential Privacy [55.32262879188817]
そこで本研究では,PrivUnitが局所的プライベートな乱数化器群間の最適分散を実現することを示す。
また,ガウス分布に基づくPrivUnitの新たな変種も開発しており,数学的解析に適しており,同じ最適性保証を享受できる。
論文 参考訳(メタデータ) (2022-05-05T06:43:46Z) - Uniformity Testing in the Shuffle Model: Simpler, Better, Faster [0.0]
均一性テスト(英: Uniformity testing)または独立した観察が均一に分散されているかどうかをテストすることは、分散テストにおける問題である。
本研究では,シャッフルモデルにおける既知の一様性試験アルゴリズムの解析を大幅に単純化する。
論文 参考訳(メタデータ) (2021-08-20T03:43:12Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。