論文の概要: Federated Experiment Design under Distributed Differential Privacy
- arxiv url: http://arxiv.org/abs/2311.04375v1
- Date: Tue, 7 Nov 2023 22:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 13:26:22.816080
- Title: Federated Experiment Design under Distributed Differential Privacy
- Title(参考訳): 分散微分プライバシーに基づくフェデレーション実験設計
- Authors: Wei-Ning Chen, Graham Cormode, Akash Bharadwaj, Peter Romov, Ayfer Özgür,
- Abstract要約: 我々は,サービス提供者に対する信頼を最小限にしつつ,ユーザのプライバシの厳格な保護に注力する。
現代のA/Bテストにおいて重要な要素であるが、これまではプライベート分散実験は研究されていない。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
- 参考スコア(独自算出の注目度): 31.06808163362162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Experiment design has a rich history dating back over a century and has found many critical applications across various fields since then. The use and collection of users' data in experiments often involve sensitive personal information, so additional measures to protect individual privacy are required during data collection, storage, and usage. In this work, we focus on the rigorous protection of users' privacy (under the notion of differential privacy (DP)) while minimizing the trust toward service providers. Specifically, we consider the estimation of the average treatment effect (ATE) under DP, while only allowing the analyst to collect population-level statistics via secure aggregation, a distributed protocol enabling a service provider to aggregate information without accessing individual data. Although a vital component in modern A/B testing workflows, private distributed experimentation has not previously been studied. To achieve DP, we design local privatization mechanisms that are compatible with secure aggregation and analyze the utility, in terms of the width of confidence intervals, both asymptotically and non-asymptotically. We show how these mechanisms can be scaled up to handle the very large number of participants commonly found in practice. In addition, when introducing DP noise, it is imperative to cleverly split privacy budgets to estimate both the mean and variance of the outcomes and carefully calibrate the confidence intervals according to the DP noise. Last, we present comprehensive experimental evaluations of our proposed schemes and show the privacy-utility trade-offs in experiment design.
- Abstract(参考訳): 実験設計は1世紀以上もさかのぼる豊富な歴史を持ち、それ以来様々な分野において多くの重要な応用が発見されている。
実験におけるユーザのデータの使用と収集は、機密性の高い個人情報を含むことが多いため、データ収集、ストレージ、利用において、個人のプライバシを保護するための追加措置が必要である。
本研究では,サービス提供者に対する信頼を最小化しつつ,ユーザのプライバシの厳格な保護(差分プライバシ(DP)の概念に基づく)に注力する。
具体的には,DP における平均処理効果 (ATE) の推定について検討するとともに,サービスプロバイダが個々のデータにアクセスせずに情報を集約できる分散プロトコルであるセキュアアグリゲーションを通じて,人口レベルの統計データのみを収集する。
現代のA/Bテストワークフローにおいて重要なコンポーネントであるが、プライベートな分散実験はこれまで研究されていない。
DPを実現するために,安全なアグリゲーションに適合する局所的民営化機構を設計し,漸近的にも非漸近的にも,信頼区間の幅の観点からその有用性を解析する。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
また、DPノイズを導入する際には、プライバシー予算を巧みに分割して結果の平均と分散を推定し、DPノイズに応じて信頼区間を慎重に調整することが不可欠である。
最後に,提案手法の総合的な実験評価を行い,実験設計におけるプライバシ・ユーティリティのトレードオフを示す。
関連論文リスト
- Segmented Private Data Aggregation in the Multi-message Shuffle Model [6.436165623346879]
我々は、差分プライバシーのマルチメッセージシャッフルモデルにおいて、セグメント化されたプライベートデータアグリゲーションの研究を開拓した。
当社のフレームワークでは,ユーザに対するフレキシブルなプライバシ保護と,アグリゲーションサーバのための拡張ユーティリティを導入している。
提案手法は,既存手法と比較して推定誤差を約50%削減する。
論文 参考訳(メタデータ) (2024-07-29T01:46:44Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Differentially Private Confidence Intervals for Proportions under Stratified Random Sampling [14.066813980992132]
データプライバシの意識の高まりに伴い、プライベートバージョンの信頼区間の開発が注目されている。
最近の研究は個人的信頼区間で行われているが、個人的信頼区間では厳密な方法論が研究されていない。
階層化されたランダムサンプリングの下で,信頼区間を構成するための3つの差分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-19T21:25:41Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Combining Public and Private Data [7.975795748574989]
分散を最小化するために最適化された平均の混合推定器を導入する。
ユーザのプライバシニーズに比例してデータをサブサンプリングすることで、個人のプライバシを保護する手法よりも、当社のメカニズムの方が望ましい、と我々は主張する。
論文 参考訳(メタデータ) (2021-10-29T23:25:49Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。