論文の概要: Zip to Zip-it: Compression to Achieve Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2308.14627v1
- Date: Mon, 28 Aug 2023 14:51:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 07:22:30.508277
- Title: Zip to Zip-it: Compression to Achieve Local Differential Privacy
- Title(参考訳): Zip to Zip-it: ローカルな差別的プライバシを実現する圧縮
- Authors: Francesco Taurone, Daniel Lucani, Qi Zhang,
- Abstract要約: 数値データに対する局所的な差分プライバシー技術は、一般的にデータセットを変換し、クエリが与えられた場合、悪意のあるユーザは元のサンプルに関する情報を推測できる可能性を保証する。
本稿では,摂動器とアグリゲータを単位として設計したZealと呼ばれる民営化手法を提案する。
その結果,圧縮性能は最大94%向上し,データ伝送効率は最大95%向上し,ユーティリティエラーは2%に抑えられた。
- 参考スコア(独自算出の注目度): 5.49707035432474
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Local differential privacy techniques for numerical data typically transform a dataset to ensure a bound on the likelihood that, given a query, a malicious user could infer information on the original samples. Queries are often solely based on users and their requirements, limiting the design of the perturbation to processes that, while privatizing the results, do not jeopardize their usefulness. In this paper, we propose a privatization technique called Zeal, where perturbator and aggregator are designed as a unit, resulting in a locally differentially private mechanism that, by-design, improves the compressibility of the perturbed dataset compared to the original, saves on transmitted bits for data collection and protects against a privacy vulnerabilities due to floating point arithmetic that affect other state-of-the-art schemes. We prove that the utility error on querying the average is invariant to the bias introduced by Zeal in a wide range of conditions, and that under the same circumstances, Zeal also guarantee protection against the aforementioned vulnerability. Our numerical results show up to 94% improvements in compression and up to 95% more efficient data transmissions, while keeping utility errors within 2%.
- Abstract(参考訳): 数値データに対する局所的な差分プライバシー技術は、一般的にデータセットを変換し、クエリが与えられた場合、悪意のあるユーザは元のサンプルに関する情報を推測できる可能性を保証する。
クエリはユーザとその要件のみに基づいており、結果を民営化する一方で、その有用性を損なうことのないプロセスに摂動の設計を制限する。
本稿では,摂動器とアグリゲータを単位として設計するZealと呼ばれる民営化手法を提案する。この手法は,設計上,原文と比較して摂動データセットの圧縮性を向上し,データ収集のための送信ビットを節約し,他の最先端方式に影響を及ぼす浮動小数点演算によるプライバシの脆弱性に対して保護する,局所的に微分プライベートな機構を実現する。
平均クエリにおけるユーティリティエラーは、Zealが幅広い条件で導入したバイアスと不変であり、同じ状況下でもZealは上記の脆弱性に対する保護も保証している。
計算の結果,圧縮性能は最大94%向上し,データ伝送効率は最大95%向上し,ユーティリティエラーは2%に抑えられた。
関連論文リスト
- RASE: Efficient Privacy-preserving Data Aggregation against Disclosure Attacks for IoTs [2.1765174838950494]
センサデバイスが生み出すデータを収集・保護する新たなパラダイムについて検討する。
データアグリゲーションとプライバシ保護の共同設計に関するこれまでの研究は、信頼されたフュージョンセンターがプライバシ体制に準拠していることを前提としている。
本稿では,3段階の逐次手順,雑音付加,ランダムな置換,パラメータ推定に一般化可能な新しいパラダイム(RASE)を提案する。
論文 参考訳(メタデータ) (2024-05-31T15:21:38Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Summary Statistic Privacy in Data Sharing [23.50797952699759]
本研究では,データ配信の要約統計を明らかにすることなく,データ保持者が受信者とデータを共有したい状況について検討する。
このようなメカニズムのプライバシーリスクを定量化するための指標である統計プライバシーの要約を提案する。
提案した量子化メカニズムは、代替プライバシメカニズムよりも優れたプライバシー歪曲トレードオフを実現する。
論文 参考訳(メタデータ) (2023-03-03T15:29:19Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Uncertainty-Autoencoder-Based Privacy and Utility Preserving Data Type
Conscious Transformation [3.7315964084413173]
プライバシ・ユーティリティのトレードオフ問題に対処する逆学習フレームワークを2つの条件で提案する。
データタイプの無知な条件下では、プライバシメカニズムは、正確に1つのクラスを表す、カテゴリ機能の1ホットエンコーディングを提供する。
データ型認識条件下では、分類変数は各クラスごとに1つのスコアの集合で表される。
論文 参考訳(メタデータ) (2022-05-04T08:40:15Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Data-driven Regularized Inference Privacy [33.71757542373714]
データを衛生化するためのデータ駆動推論プライバシ保護フレームワークを提案する。
我々は変分法に基づく推論プライバシ・フレームワークを開発する。
プライバシー基準を推定するための実証的手法を提案する。
論文 参考訳(メタデータ) (2020-10-10T08:42:59Z) - Bias and Variance of Post-processing in Differential Privacy [53.29035917495491]
後処理免疫は、差分プライバシーの基本的な性質である。
ポストプロセッシングはバイアスをもたらし、ばらつきを増大させるとしばしば主張される。
本稿では,後処理の特性を理解するための第一歩を踏み出す。
論文 参考訳(メタデータ) (2020-10-09T02:12:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。