論文の概要: About the Cost of Central Privacy in Density Estimation
- arxiv url: http://arxiv.org/abs/2306.14535v2
- Date: Fri, 22 Sep 2023 08:16:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 18:35:32.038280
- Title: About the Cost of Central Privacy in Density Estimation
- Title(参考訳): 密度推定における中央プライバシーのコストについて
- Authors: Cl\'ement Lalanne (ENS de Lyon, OCKHAM), Aur\'elien Garivier
(UMPA-ENSL, MC2), R\'emi Gribonval (OCKHAM)
- Abstract要約: リプシッツ空間とソボレフ空間における密度の非パラメトリック密度推定について検討する。
プライバシー予算が一定でないような体制を考える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study non-parametric density estimation for densities in Lipschitz and
Sobolev spaces, and under central privacy. In particular, we investigate
regimes where the privacy budget is not supposed to be constant. We consider
the classical definition of central differential privacy, but also the more
recent notion of central concentrated differential privacy. We recover the
result of Barber \& Duchi (2014) stating that histogram estimators are optimal
against Lipschitz distributions for the L2 risk, and under regular differential
privacy, and we extend it to other norms and notions of privacy. Then, we
investigate higher degrees of smoothness, drawing two conclusions: First, and
contrary to what happens with constant privacy budget (Wasserman \& Zhou,
2010), there are regimes where imposing privacy degrades the regular minimax
risk of estimation on Sobolev densities. Second, so-called projection
estimators are near-optimal against the same classes of densities in this new
setup with pure differential privacy, but contrary to the constant privacy
budget case, it comes at the cost of relaxation. With zero concentrated
differential privacy, there is no need for relaxation, and we prove that the
estimation is optimal.
- Abstract(参考訳): リプシッツ空間とソボレフ空間における密度の非パラメトリック密度推定を中心的プライバシー下で検討した。
特に,プライバシ予算が一定でないことを想定した体制について検討する。
我々は、中央微分プライバシの古典的な定義だけでなく、中央微分プライバシのより最近の概念も考慮している。
我々は barber \& duchi (2014) の結果を復元し、ヒストグラム推定器は l2 のリスクに対してリプシッツ分布に対して最適であり、通常の微分プライバシー下では、それを他の規範やプライバシー概念に拡張する。
まず, 一定のプライバシー予算(wasserman \& zhou, 2010) に対して, プライバシを強制することで, ソボレフ密度に対する推定の極小化リスクを低下させるような制度が存在する。
第2に、いわゆるプロジェクション推定器は、純粋な差分プライバシーを備えたこの新しい設定において、同じ密度のクラスに対してほぼ最適だが、一定のプライバシー予算のケースとは対照的に、緩和のコストがかかる。
偏微分プライバシーはゼロであり、緩和する必要はなく、推定が最適であることが証明される。
関連論文リスト
- Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Mean Estimation Under Heterogeneous Privacy Demands [5.755004576310333]
本研究は,各ユーザが自身のプライバシレベルを設定できる平均推定の問題について考察する。
提案するアルゴリズムは,ミニマックス最適であり,ほぼ直線的な実行時間を有することを示す。
プライバシー要件が低いが異なるユーザは、すべて同じ金額で、必要以上のプライバシーを与えられる。
論文 参考訳(メタデータ) (2023-10-19T20:29:19Z) - Mean Estimation Under Heterogeneous Privacy: Some Privacy Can Be Free [13.198689566654103]
本研究は,異種差分プライバシー制約に基づく平均推定の問題について考察する。
提案するアルゴリズムは,プライバシレベルが異なる2つのユーザグループが存在する場合に,ミニマックス最適であることが示されている。
論文 参考訳(メタデータ) (2023-04-27T05:23:06Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Echo of Neighbors: Privacy Amplification for Personalized Private
Federated Learning with Shuffle Model [21.077469463027306]
協調トレーニングの一般的なパラダイムであるフェデレートラーニングは、プライバシ攻撃に弱い。
この作業は、シャッフルモデルのプライバシー増幅効果を活用することで、パーソナライズされたローカルプライバシの下でのモデルプライバシを強化するために構築される。
私たちの知る限りでは、シャッフルがパーソナライズされたローカルプライバシに与える影響は、初めて考慮される。
論文 参考訳(メタデータ) (2023-04-11T21:48:42Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Optimal and Differentially Private Data Acquisition: Central and Local
Mechanisms [9.599356978682108]
プライバシに敏感なユーザからデータを収集するプラットフォームの問題を考え,その基盤となる関心パラメータを推定する。
ユーザに対して、プライバシ保証を提供するための2つの一般的な差分プライバシ設定について検討する。
このメカニズム設計問題は,ユーザのプライバシ感を真に報告するための推定器と支払器の最適選択として機能する。
論文 参考訳(メタデータ) (2022-01-10T00:27:43Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Differential Privacy at Risk: Bridging Randomness and Privacy Budget [5.393465689287103]
我々は、ノイズ分布によって引き起こされる明示的ランダム性や、データ生成によって引き起こされる暗黙的ランダム性など、ランダム性源の役割を分析する。
プライバシ保存機構の確率的校正であるリスクのあるプライバシを提案する。
コスト最適プライバシを用いたコンポジションは,従来の高度なコンポジションよりも強力なプライバシ保証を提供することを示す。
論文 参考訳(メタデータ) (2020-03-02T15:44:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。