論文の概要: Combining Public and Private Data
- arxiv url: http://arxiv.org/abs/2111.00115v1
- Date: Fri, 29 Oct 2021 23:25:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 01:59:38.803368
- Title: Combining Public and Private Data
- Title(参考訳): 公開データとプライベートデータを組み合わせる
- Authors: Cecilia Ferrando, Jennifer Gillenwater, Alex Kulesza
- Abstract要約: 分散を最小化するために最適化された平均の混合推定器を導入する。
ユーザのプライバシニーズに比例してデータをサブサンプリングすることで、個人のプライバシを保護する手法よりも、当社のメカニズムの方が望ましい、と我々は主張する。
- 参考スコア(独自算出の注目度): 7.975795748574989
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy is widely adopted to provide provable privacy guarantees
in data analysis. We consider the problem of combining public and private data
(and, more generally, data with heterogeneous privacy needs) for estimating
aggregate statistics. We introduce a mixed estimator of the mean optimized to
minimize the variance. We argue that our mechanism is preferable to techniques
that preserve the privacy of individuals by subsampling data proportionally to
the privacy needs of users. Similarly, we present a mixed median estimator
based on the exponential mechanism. We compare our mechanisms to the methods
proposed in Jorgensen et al. [2015]. Our experiments provide empirical evidence
that our mechanisms often outperform the baseline methods.
- Abstract(参考訳): 差分プライバシーは、データ分析において証明可能なプライバシー保証を提供するために広く採用されている。
総合的な統計量の推定には,公開データとプライベートデータ(より一般的には,異質なプライバシニーズを持つデータ)を組み合わせる問題を考える。
分散を最小化するために最適化された平均の混合推定器を導入する。
当社のメカニズムは,ユーザのプライバシニーズに比例してデータをサブサンプリングすることにより,個人のプライバシを保護する手法よりも望ましいと論じている。
同様に,指数関数機構に基づく混合中央値推定器を提案する。
Jorgensenらによって提案された手法と比較した。
[2015].
我々の実験は、我々のメカニズムがベースライン法より優れているという実証的な証拠を提供する。
関連論文リスト
- A Simple and Practical Method for Reducing the Disparate Impact of
Differential Privacy [21.098175634158043]
差分的プライベート(DP)メカニズムは、様々なインパクトの高い社会環境に展開されている。
DPの実用性への影響はサブ集団によって大きく異なる。
この格差を減らすための簡単な方法は、成層化である。
論文 参考訳(メタデータ) (2023-12-18T21:19:35Z) - Federated Experiment Design under Distributed Differential Privacy [31.06808163362162]
我々は,サービス提供者に対する信頼を最小限にしつつ,ユーザのプライバシの厳格な保護に注力する。
現代のA/Bテストにおいて重要な要素であるが、これまではプライベート分散実験は研究されていない。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
論文 参考訳(メタデータ) (2023-11-07T22:38:56Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Data Analytics with Differential Privacy [0.0]
我々は分散データとストリーミングデータを解析するための差分プライベートアルゴリズムを開発した。
分散モデルでは、学習の特定の問題 -- 分散形式で -- がデータのグローバルモデルであると考えている。
私たちは、ストリーミングモデル、ユーザーレベルのパンプライバシに対して、最も強力なプライバシー保証の1つを提供しています。
論文 参考訳(メタデータ) (2023-07-20T17:43:29Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。