論文の概要: Locally Differentially Private Frequency Estimation via Joint Randomized Response
- arxiv url: http://arxiv.org/abs/2505.10349v1
- Date: Thu, 15 May 2025 14:41:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.358429
- Title: Locally Differentially Private Frequency Estimation via Joint Randomized Response
- Title(参考訳): 共同ランダム化応答による局所的個人周波数推定
- Authors: Ye Zheng, Shafizur Rahman Seeam, Yidan Hu, Rui Zhang, Yanchao Zhang,
- Abstract要約: ローカル微分プライバシー(LDP)は、信頼できないデータコレクタに対してデータコントリビュータにデータプライバシの強力な理論的保証を提供する強力なツールとして広く認識されている。
既存のLDPメカニズムに共通するのは、プライバシ保護とデータユーティリティのレベルでのトレードオフである。
本稿では, 相関データ摂動に基づく新しい共振応答(JRR)機構を提案し, 局所的に個人周波数を推定する。
- 参考スコア(独自算出の注目度): 14.398663407098836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local Differential Privacy (LDP) has been widely recognized as a powerful tool for providing a strong theoretical guarantee of data privacy to data contributors against an untrusted data collector. Under a typical LDP scheme, each data contributor independently randomly perturbs their data before submitting them to the data collector, which in turn infers valuable statistics about the original data from received perturbed data. Common to existing LDP mechanisms is an inherent trade-off between the level of privacy protection and data utility in the sense that strong data privacy often comes at the cost of reduced data utility. Frequency estimation based on Randomized Response (RR) is a fundamental building block of many LDP mechanisms. In this paper, we propose a novel Joint Randomized Response (JRR) mechanism based on correlated data perturbations to achieve locally differentially private frequency estimation. JRR divides data contributors into disjoint groups of two members and lets those in the same group jointly perturb their binary data to improve frequency-estimation accuracy and achieve the same level of data privacy by hiding the group membership information in contrast to the classical RR mechanism. Theoretical analysis and detailed simulation studies using both real and synthetic datasets show that JRR achieves the same level of data privacy as the classical RR mechanism while improving the frequency-estimation accuracy in the overwhelming majority of the cases by up to two orders of magnitude.
- Abstract(参考訳): ローカル微分プライバシー(LDP)は、信頼できないデータコレクタに対してデータコントリビュータにデータプライバシの強力な理論的保証を提供する強力なツールとして広く認識されている。
典型的な LDP スキームでは、各データコントリビュータがデータコレクターに送信する前にデータをランダムに摂動し、受信した摂動データから元のデータに関する貴重な統計を推測する。
既存の LDP メカニズムに共通しているのは,データユーティリティの削減にコストがかかる場合が多いという点で,プライバシ保護とデータユーティリティのレベルでのトレードオフである。
ランダム化応答(RR)に基づく周波数推定は多くのLDP機構の基本構成ブロックである。
本稿では, 相関データ摂動に基づく新しい共振応答(JRR)機構を提案し, 局所的に個人周波数を推定する。
JRRは、データコントリビュータを2つのメンバの解離したグループに分割し、同じグループのメンバが連立してバイナリデータを摂動させ、周波数推定精度を改善し、グループメンバーシップ情報を古典的なRRメカニズムとは対照的に隠蔽することで、同じレベルのデータプライバシを実現する。
実データと合成データの両方を用いた理論的解析および詳細なシミュレーション研究により,JRRは従来のRR機構と同じレベルのデータプライバシーを実現するとともに,圧倒的多数症例の周波数推定精度を最大2桁まで向上することが示された。
関連論文リスト
- Bipartite Randomized Response Mechanism for Local Differential Privacy [12.356030528988002]
BRR(Bipartite Randomized Response)と呼ばれる適応型ローカルプライバシ(LDP)機構を導入する。
あらゆるユーティリティ機能やプライバシレベルにおいて、この問題を解決することは、リリース確率の真のデータとして扱われる高ユーティリティデータの数を確認することと等価であることを示す。
我々のBRRは、連続型と分散型の両方の最先端のLPPメカニズムを著しく上回っている。
論文 参考訳(メタデータ) (2025-04-29T16:39:50Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Differentially private sliced inverse regression in the federated
paradigm [3.539008590223188]
Sliced inverse regression(SIR)を拡張して、分散データの課題に対処し、プライバシと通信効率を優先する。
我々の手法はFSIR (Federated sliced inverse regression) と呼ばれ、複数のクライアント間で十分な次元削減部分空間を協調的に推定する。
論文 参考訳(メタデータ) (2023-06-10T00:32:39Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。