論文の概要: Locally private nonparametric confidence intervals and sequences
- arxiv url: http://arxiv.org/abs/2202.08728v1
- Date: Thu, 17 Feb 2022 16:04:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 16:36:46.050424
- Title: Locally private nonparametric confidence intervals and sequences
- Title(参考訳): 局所的非パラメトリック信頼区間とシーケンス
- Authors: Ian Waudby-Smith, Zhiwei Steven Wu, Aaditya Ramdas
- Abstract要約: 本研究は,局所的差分プライバシー(LDP)の制約の下で,集団パラメータの非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、mathbb R$の$mustarに対して、信頼区間(CI)と時間一様信頼シーケンス(CS)を導入する。
我々は、これらのCSを拡張して、時間変化のある(非定常的な)手段をキャプチャし、これらの手法をオンラインA/Bテストのプライベートな実行にどのように使用できるかを示して結論付けます。
- 参考スコア(独自算出の注目度): 60.51215940742933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work derives methods for performing nonparametric, nonasymptotic
statistical inference for population parameters under the constraint of local
differential privacy (LDP). Given observations $(X_1, \dots, X_n)$ with mean
$\mu^\star$ that are privatized into $(Z_1, \dots, Z_n)$, we introduce
confidence intervals (CI) and time-uniform confidence sequences (CS) for
$\mu^\star \in \mathbb R$ when only given access to the privatized data. We
introduce a nonparametric and sequentially interactive generalization of
Warner's famous "randomized response" mechanism, satisfying LDP for arbitrary
bounded random variables, and then provide CIs and CSs for their means given
access to the resulting privatized observations. We extend these CSs to capture
time-varying (non-stationary) means, and conclude by illustrating how these
methods can be used to conduct private online A/B tests.
- Abstract(参考訳): この研究は、局所微分プライバシー(ldp)の制約下で人口パラメータの非パラメトリック、非漸近的統計推論を行う手法を導出する。
z_1, \dots, x_n)$に民営化される平均$\mu^\star$(z_1, \dots, z_n)$の観測により、民営化データへのアクセスが与えられた場合にのみ$\mu^\star \in \mathbb r$に対して、信頼区間(ci)と時間一様信頼シーケンス(cs)を導入する。
我々は、ワーナーの有名な「ランダム化応答」機構を非パラメトリックかつ逐次的に一般化し、任意の有界な確率変数に対するldpを満たし、その結果の民営化された観測へのアクセスを与えられた方法でcisとcssを提供する。
我々は、これらのCSを拡張して、時間変化のある(非定常的な)手段を捕捉し、これらの手法がオンラインA/Bテストのプライベートな実施にどのように使用できるかを説明する。
関連論文リスト
- On Differentially Private U Statistics [25.683071759227293]
局所的なH'ajekプロジェクションを用いて、データの異なる部分集合を再重み付けする新しいしきい値に基づくアプローチを提案する。
これは、非退化U統計に対してほぼ最適なプライベート誤差をもたらし、退化U統計に対してほぼ最適であることを示す強い指標となる。
論文 参考訳(メタデータ) (2024-07-06T03:27:14Z) - Mitigating LLM Hallucinations via Conformal Abstention [70.83870602967625]
我々は,大言語モデルが一般ドメインでの応答をいつ無視すべきかを決定するための,原則化された手順を開発する。
我々は、幻覚率(エラー率)の厳密な理論的保証の恩恵を受けるため、共形予測手法を活用して、禁忌手順を開発する。
実験によって得られた共形禁忌法は, 種々の閉書, オープンドメイン生成質問応答データセットに, 幻覚率を確実に拘束する。
論文 参考訳(メタデータ) (2024-04-04T11:32:03Z) - Resampling methods for private statistical inference [1.8110941972682346]
我々は、信頼区間を異なるプライバシーで構築する作業について検討する。
データのパーティション上で実行される複数の"小さな"ブートストラップの結果の中央値をプライベートに計算する,非パラメトリックブートストラップの2つのプライベート変種を提案する。
固定された差分プライバシーパラメータ$epsilon$に対して、我々のメソッドは、サンプルサイズ$n$の対数係数内の非プライベートブートストラップと同じエラー率を享受します。
論文 参考訳(メタデータ) (2024-02-11T08:59:02Z) - Unified Enhancement of Privacy Bounds for Mixture Mechanisms via
$f$-Differential Privacy [41.51051636162107]
本稿では、シャッフルモデルと1点差分勾配勾配のプライバシー境界の改善に焦点をあてる。
シャッフルモデルに対するトレードオフ関数のクローズドフォーム式を導出し、最新の結果よりも優れる。
また, ホッケースティックの進行した関節凸性の$f$-DPアナログを, $(epsilon,delta)$-DPに関連するホッケースティックのばらつきについて検討した。
論文 参考訳(メタデータ) (2023-10-30T19:37:51Z) - Differentially Private Statistical Inference through $\beta$-Divergence
One Posterior Sampling [2.8544822698499255]
本稿では,モデルとデータ生成プロセス間の$beta$-divergenceの最小化を目標とした,一般化後部からの後部サンプリング手法を提案する。
これにより、基礎となるモデルの変更を必要とせずに、一般的に適用可能なプライベートな推定が可能になる。
我々は、$beta$D-Bayesが同一のプライバシー保証に対してより正確な推測を行うことを示す。
論文 参考訳(メタデータ) (2023-07-11T12:00:15Z) - Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions [49.726408540784334]
PLDベースの会計の鍵となる問題は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
悲観的推定はすべての悲観的推定の中で最良であることを示す。
論文 参考訳(メタデータ) (2022-07-10T04:25:02Z) - Local Differential Privacy Is Equivalent to Contraction of
$E_\gamma$-Divergence [7.807294944710216]
我々は, LDP 制約を$E_gamma$-divergence の縮約係数で等価にキャストできることを示す。
次に、この等価式を用いて、任意の$f$-divergencesの収縮係数の観点から、プライバシー機構のLCP保証を表現する。
論文 参考訳(メタデータ) (2021-02-02T02:18:12Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。