論文の概要: The power of private likelihood-ratio tests for goodness-of-fit in
frequency tables
- arxiv url: http://arxiv.org/abs/2109.09630v1
- Date: Mon, 20 Sep 2021 15:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 20:41:28.010298
- Title: The power of private likelihood-ratio tests for goodness-of-fit in
frequency tables
- Title(参考訳): 周波数表の適合性に関する個人確率比試験のパワー
- Authors: Emanuele Dolera, Stefano Favaro
- Abstract要約: 周波数表の適合性に関するプライバシー保護テストについて検討する。
本研究は,検査の統計的意義の喪失を避けるため,摂動を考慮に入れることの重要性を示す。
本研究は,プライバシ保護型LRテストにおいて,周波数表に適合性を示すための厳格な治療法として初めて提示するものである。
- 参考スコア(独自算出の注目度): 1.713291434132985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy-protecting data analysis investigates statistical methods under
privacy constraints. This is a rising challenge in modern statistics, as the
achievement of confidentiality guarantees, which typically occurs through
suitable perturbations of the data, may determine a loss in the statistical
utility of the data. In this paper, we consider privacy-protecting tests for
goodness-of-fit in frequency tables, this being arguably the most common form
of releasing data. Under the popular framework of
$(\varepsilon,\delta)$-differential privacy for perturbed data, we introduce a
private likelihood-ratio (LR) test for goodness-of-fit and we study its large
sample properties, showing the importance of taking the perturbation into
account to avoid a loss in the statistical significance of the test. Our main
contribution provides a quantitative characterization of the trade-off between
confidentiality, measured via differential privacy parameters $\varepsilon$ and
$\delta$, and utility, measured via the power of the test. In particular, we
establish a precise Bahadur-Rao type large deviation expansion for the power of
the private LR test, which leads to: i) identify a critical quantity, as a
function of the sample size and $(\varepsilon,\delta)$, which determines a loss
in the power of the private LR test; ii) quantify the sample cost of
$(\varepsilon,\delta)$-differential privacy in the private LR test, namely the
additional sample size that is required to recover the power of the LR test in
the absence of perturbation. Such a result relies on a novel multidimensional
large deviation principle for sum of i.i.d. random vectors, which is of
independent interest. Our work presents the first rigorous treatment of
privacy-protecting LR tests for goodness-of-fit in frequency tables, making use
of the power of the test to quantify the trade-off between confidentiality and
utility.
- Abstract(参考訳): プライバシー保護データ分析は、プライバシー制約の下で統計手法を調査する。
データの適切な摂動によって発生する機密性保証の達成は、データの統計的有用性の損失を決定する可能性があるため、これは現代の統計学における増大する課題である。
本稿では、データ公開の最も一般的な形態である周波数表のプライバシー保護テストについて考察する。
ゆらぎのあるデータに対する$(\varepsilon,\delta)$-differential privacyという一般的な枠組みの下で、我々は、適合性の良さのためのプライベート・ラバース・レイショ(lr)テストを導入し、その大きなサンプル特性を調査し、テストの統計的重要性の損失を避けるために摂動を考慮に入れることの重要性を示した。
私たちの主な貢献は、差分プライバシーパラメータ$\varepsilon$と$\delta$で測定された機密性と、テストのパワーで測定されたユーティリティとの間のトレードオフを定量的に評価することです。
特に,プライベートlrテストのパワーに対して,バハドゥル・ラオ型大偏差展開を精度良く確立し,以下の結果が得られる。
i) プライベートlrテストのパワーの損失を決定する、サンプルサイズと$(\varepsilon,\delta)$の関数として臨界量を特定すること。
二 プライベートLRテストにおいて、サンプルコストを$(\varepsilon,\delta)$-differential privacy、すなわち摂動がない場合にLRテストの電力を回復するために必要となる追加のサンプルサイズを定量化する。
このような結果は、独立な興味を持つランダムベクトルの和に対する新しい多次元の大偏差原理に依存している。
本研究は,プライバシ保護型LRテストの周波数表における適合性向上のための厳密な対策として,秘密性と実用性の間のトレードオフを定量化するために,テストのパワーを利用する。
関連論文リスト
- Differentially Private Communication of Measurement Anomalies in the Smart Grid [4.021993915403885]
本稿では,差分プライバシ(DP)に基づく電力測定を問合せし,システム異常や悪いデータを検出するフレームワークを提案する。
我々のDPアプローチは,不信頼な第三者が異常の仮説を検証できるようにしながら,消費とシステムマトリックスデータを隠蔽する。
本稿では,電力注入やシステムマトリクスに関するプライベート情報を明らかにしない新しいDPチ方形ノイズ機構を提案する。
論文 参考訳(メタデータ) (2024-03-04T18:55:16Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Sequential Kernelized Independence Testing [101.22966794822084]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Private Sequential Hypothesis Testing for Statisticians: Privacy, Error
Rates, and Sample Size [24.149533870085175]
我々は、Renyi差分プライバシーとして知られる、差分プライバシーのわずかな変種の下で、シーケンシャル仮説テスト問題を研究する。
我々は,Wald's Sequential Probability Ratio Test (SPRT)に基づく新たなプライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-10T04:15:50Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Minimax optimal goodness-of-fit testing for densities and multinomials
under a local differential privacy constraint [3.265773263570237]
適合性テストにおける局所的な差分プライバシー制約の影響を考察する。
本稿では,未知密度の滑らか度パラメータに適応し,対数係数まで最小限の最適値を維持するテストを提案する。
論文 参考訳(メタデータ) (2020-02-11T08:41:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。