論文の概要: The Hidden Cost of Correlation: Rethinking Privacy Leakage in Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2508.12539v1
- Date: Mon, 18 Aug 2025 00:34:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.852259
- Title: The Hidden Cost of Correlation: Rethinking Privacy Leakage in Local Differential Privacy
- Title(参考訳): 相関の隠れたコスト:ローカルの差分プライバシーにおけるプライバシー漏洩を再考する
- Authors: Sandaru Jayawardana, Sennur Ulukus, Ming Ding, Kanchana Thilakarathna,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、分散システムにおけるプライバシ保護データ収集のための有望なパラダイムとして登場した。
最近の研究は、相関性によるプライバシー漏洩(CPL)が、LDPの下でのプライバシーとユーティリティのトレードオフを形成する上で重要な役割を担っていることを強調している。
- 参考スコア(独自算出の注目度): 35.501140141067395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local differential privacy (LDP) has emerged as a promising paradigm for privacy-preserving data collection in distributed systems, where users contribute multi-dimensional records with potentially correlated attributes. Recent work has highlighted that correlation-induced privacy leakage (CPL) plays a critical role in shaping the privacy-utility trade-off under LDP, especially when correlations exist among attributes. Nevertheless, it remains unclear to what extent the prevailing assumptions and proposed solutions are valid and how significant CPL is in real-world data. To address this gap, we first perform a comprehensive statistical analysis of five widely used LDP mechanisms -- GRR, RAPPOR, OUE, OLH and Exponential mechanism -- to assess CPL across four real-world datasets. We identify that many primary assumptions and metrics in current approaches fall short of accurately characterising these leakages. Moreover, current studies have been limited to a set of pure LDP (i.e., {\delta = 0}) mechanisms. In response, we develop the first algorithmic framework to theoretically quantify CPL for any general approximated LDP (({\varepsilon},{\delta})-LDP) mechanism. We validate our theoretical results against empirical statistical results and provide a theoretical explanation for the observed statistical patterns. Finally, we propose two novel benchmarks to validate correlation analysis algorithms and evaluate the utility vs CPL of LDP mechanisms. Further, we demonstrate how these findings can be applied to achieve an efficient privacy-utility trade-off in real-world data governance.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)は、分散システムにおけるプライバシ保護データ収集において、ユーザが潜在的に相関性のある属性を持つ多次元レコードをコントリビュートする、有望なパラダイムとして登場した。
最近の研究は、特に属性間に相関性が存在する場合、LDPの下でプライバシーユーティリティトレードオフを形成する上で、相関性によるプライバシー漏洩(CPL)が重要な役割を担っていることを強調している。
それでも、一般的な仮定や提案された解決策がどの程度有効か、そしてCPLが現実世界のデータでどの程度重要かは、まだ不明である。
このギャップに対処するために、私たちはまず、GRR、RAPPOR、OUE、OLH、Exponentialの5つの広く使われているLDPメカニズムの包括的な統計分析を行い、4つの実世界のデータセットでCPLを評価する。
我々は、現在のアプローチにおける多くの主要な仮定とメトリクスが、これらのリークを正確に特徴づけるに足りていないことを確認した。
さらに、現在の研究は純粋な LDP (すなわち {\delta = 0}) のメカニズムに限られている。
そこで我々は,任意の一般近似LDP({\varepsilon,{\delta})-LDP)機構に対して,CPLを理論的に定量化するアルゴリズムフレームワークを開発した。
実験的な統計的結果に対して理論結果を検証し、観測された統計パターンに関する理論的説明を提供する。
最後に, 相関解析アルゴリズムを検証し, LDP機構の実用性対CPLを評価するための2つの新しいベンチマークを提案する。
さらに、実世界のデータガバナンスにおける効率的なプライバシー利用トレードオフを実現するために、これらの知見をどのように適用できるかを実証する。
関連論文リスト
- KV-Auditor: Auditing Local Differential Privacy for Correlated Key-Value Estimation [3.1960143210470973]
我々は,LDPに基づくキー値推定機構を監査するフレームワークであるKV-Auditorを提案する。
我々は、最先端のLPPキー値機構を対話型および非対話型に分類する。
インタラクティブなメカニズムのために、繰り返しにまたがるインクリメンタルなプライバシリークをキャプチャするためのセグメンテーション戦略を設計する。
論文 参考訳(メタデータ) (2025-08-15T14:17:24Z) - Quantifying Classifier Utility under Local Differential Privacy [5.90975025491779]
ローカルディファレンシャルプライバシ(LDP)は、データソースに摂動を導入することで、個人データに対する定量的なプライバシ保証を提供する。
本稿では, LDP機構下での分類器の有効性を理論的に定量化するための枠組みを提案する。
論文 参考訳(メタデータ) (2025-07-03T15:42:10Z) - Balancing Privacy and Utility in Correlated Data: A Study of Bayesian Differential Privacy [4.5885800765465135]
差分プライベート(DP)システムにおけるプライバシリスクは,データの相関によって著しく増加する。
現実世界のデータベースにおける依存関係の多様さを考えると、この監視はプライバシー保護にとって重要な課題となる。
BDPはこれらの相関を考慮するためにDPを拡張しているが、現在のBDPメカニズムは、その採用を制限する顕著なユーティリティ損失を示している。
論文 参考訳(メタデータ) (2025-06-26T14:25:44Z) - Stratified Prediction-Powered Inference for Hybrid Language Model Evaluation [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
我々はStratPPI(Stratified Prediction-Powered Inference)という手法を提案する。
単純なデータ階層化戦略を用いることで,基礎的なPPI推定精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-06-06T17:37:39Z) - RL in Latent MDPs is Tractable: Online Guarantees via Off-Policy Evaluation [73.2390735383842]
付加的な構造仮定を伴わずにLMDPのサンプル効率アルゴリズムを初めて導入する。
楽観的な探索アルゴリズムのほぼ最適保証を導出するためにどのように使用できるかを示す。
これらの結果は、LMDP以外の幅広い対話型学習問題、特に部分的に観察された環境において有用である。
論文 参考訳(メタデータ) (2024-06-03T14:51:27Z) - A Simple and Practical Method for Reducing the Disparate Impact of
Differential Privacy [21.098175634158043]
差分的プライベート(DP)メカニズムは、様々なインパクトの高い社会環境に展開されている。
DPの実用性への影響はサブ集団によって大きく異なる。
この格差を減らすための簡単な方法は、成層化である。
論文 参考訳(メタデータ) (2023-12-18T21:19:35Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - False Correlation Reduction for Offline Reinforcement Learning [115.11954432080749]
本稿では,実効的かつ理論的に証明可能なアルゴリズムであるオフラインRLに対するfalSe Correlation Reduction (SCORE)を提案する。
SCOREは、標準ベンチマーク(D4RL)において、様々なタスクにおいて3.1倍の高速化でSoTA性能を達成することを実証的に示す。
論文 参考訳(メタデータ) (2021-10-24T15:34:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。