論文の概要: On the Statistical Complexity of Estimation and Testing under Privacy
Constraints
- arxiv url: http://arxiv.org/abs/2210.02215v1
- Date: Wed, 5 Oct 2022 12:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 15:22:57.354404
- Title: On the Statistical Complexity of Estimation and Testing under Privacy
Constraints
- Title(参考訳): プライバシー制約下における推定・テストの統計的複雑性について
- Authors: Cl\'ement Lalanne (ENS Lyon), Aur\'elien Garivier, R\'emi Gribonval
- Abstract要約: 差分プライバシー下での分散テストのパワーを特徴付けることは、輸送問題を解くことで実現できることを示す。
問題クラスは,プライバシによる実用性低下の証明に非常に重要であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Producing statistics that respect the privacy of the samples while still
maintaining their accuracy is an important topic of research. We study minimax
lower bounds when the class of estimators is restricted to the differentially
private ones. In particular, we show that characterizing the power of a
distributional test under differential privacy can be done by solving a
transport problem. With specific coupling constructions, this observation
allows us to derivate Le Cam-type and Fano-type inequalities for both regular
definitions of differential privacy and for divergence-based ones (based on
Renyi divergence). We then proceed to illustrate our results on three simple,
fully worked out examples. In particular, we show that the problem class has a
huge importance on the provable degradation of utility due to privacy. For some
problems, privacy leads to a provable degradation only when the rate of the
privacy parameters is small enough whereas for other problem, the degradation
systematically occurs under much looser hypotheses on the privacy parametters.
Finally, we show that the known privacy guarantees of DP-SGLD, a private convex
solver, when used to perform maximum likelihood, leads to an algorithm that is
near-minimax optimal in both the sample size and the privacy tuning parameters
of the problem for a broad class of parametric estimation procedures that
includes exponential families.
- Abstract(参考訳): 精度を維持しながらサンプルのプライバシーを尊重する統計を作成することは、研究の重要なトピックである。
我々は、推定子のクラスが微分的プライベートなクラスに制限される場合の最小値下限について研究する。
特に,ディファレンシャル・プライバシの下で分布テストのパワーを特徴付けることは,トランスポート問題を解くことによって実現できることを示す。
特定の結合構成により、この観察により、微分プライバシーの正規定義と分岐に基づく定義(renyi divergenceに基づく)の両方において、le cam型とfano型不等式を導出することができる。
次に、簡単な3つの実例について、その結果を説明します。
特に,問題クラスは,プライバシによって有用性が損なわれることに対して,非常に重要であることを示す。
いくつかの問題において、プライバシは、プライバシパラメータの比率が十分に小さい場合にのみ証明可能な劣化を引き起こすが、他の問題では、プライバシパラメータのよりゆるい仮説の下で体系的に劣化が起こる。
最後に,プライベート凸ソルバであるdp-sgldの既知のプライバシ保証が,指数関数的家族を含む幅広いパラメトリック推定手順において,問題のサンプルサイズとプライバシチューニングパラメータの両方において最小に近いアルゴリズムに導かれることを示す。
関連論文リスト
- Minimax Optimal Two-Sample Testing under Local Differential Privacy [3.3317825075368908]
ローカルディファレンシャルプライバシ(LDP)の下でのプライベート2サンプルテストにおけるプライバシと統計ユーティリティのトレードオフについて検討する。
本稿では,Laplace,離散Laplace,GoogleのRAPPORなど,実用的なプライバシメカニズムを用いたプライベートな置換テストを紹介する。
我々は,ビンニングによる連続データの研究を行い,その一様分離率をH"olderとBesovの滑らか度クラスよりもLDPで検討した。
論文 参考訳(メタデータ) (2024-11-13T22:44:25Z) - Private Optimal Inventory Policy Learning for Feature-based Newsvendor with Unknown Demand [13.594765018457904]
本稿では, f-differential privacy framework内で, プライバシ保護に最適な在庫ポリシーを推定するための新しいアプローチを提案する。
最適在庫推定のための畳み込み平滑化に基づくクリップ付き雑音勾配降下アルゴリズムを開発した。
提案手法は,コストを極端に増大させることなく,望ましいプライバシー保護を実現することができることを示す。
論文 参考訳(メタデータ) (2024-04-23T19:15:43Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - PAC Privacy Preserving Diffusion Models [6.299952353968428]
拡散モデルは、高いプライバシーと視覚的品質の両方で画像を生成することができる。
しかし、特定のデータ属性の民営化において堅牢な保護を確保するといった課題が発生する。
PACプライバシー保護拡散モデル(PAC Privacy Preserving Diffusion Model)を導入する。
論文 参考訳(メタデータ) (2023-12-02T18:42:52Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Training Private Models That Know What They Don't Know [40.19666295972155]
いくつかの一般的な選択的予測手法は、差分的にプライベートな環境では効果がないことがわかった。
モデルユーティリティレベルを越えた選択予測性能を分離する新しい評価機構を提案する。
論文 参考訳(メタデータ) (2023-05-28T12:20:07Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。