論文の概要: Post-Processing in Local Differential Privacy: An Extensive Evaluation and Benchmark Platform
- arxiv url: http://arxiv.org/abs/2507.05875v1
- Date: Tue, 08 Jul 2025 10:59:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.935817
- Title: Post-Processing in Local Differential Privacy: An Extensive Evaluation and Benchmark Platform
- Title(参考訳): ローカル差分プライバシのポストプロセシング - 大規模評価とベンチマークプラットフォーム
- Authors: Alireza Khodaie, Berkay Kemal Balioglu, Mehmet Emre Gursoy,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は,ユーザのデバイスから機密データを収集,分析するための強力なパラダイムとして注目されている。
この問題を緩和するために、いくつかの後処理法(PP)が開発されている。
本稿では,DPプロトコルが6つ,PPメソッドが7つ,ユーティリティメトリクスが4つ,データセットが6つからなる拡張ベンチマークを提案する。
- 参考スコア(独自算出の注目度): 1.0486921990935787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local differential privacy (LDP) has recently gained prominence as a powerful paradigm for collecting and analyzing sensitive data from users' devices. However, the inherent perturbation added by LDP protocols reduces the utility of the collected data. To mitigate this issue, several post-processing (PP) methods have been developed. Yet, the comparative performance of PP methods under diverse settings remains underexplored. In this paper, we present an extensive benchmark comprising 6 popular LDP protocols, 7 PP methods, 4 utility metrics, and 6 datasets to evaluate the behaviors and optimality of PP methods under diverse conditions. Through extensive experiments, we show that while PP can substantially improve utility when the privacy budget is small (i.e., strict privacy), its benefit diminishes as the privacy budget grows. Moreover, our findings reveal that the optimal PP method depends on multiple factors, including the choice of LDP protocol, privacy budget, data characteristics (such as distribution and domain size), and the specific utility metric. To advance research in this area and assist practitioners in identifying the most suitable PP method for their setting, we introduce LDP$^3$, an open-source benchmark platform. LDP$^3$ contains all methods used in our experimental analysis, and it is designed in a modular, extensible, and multi-threaded way for future use and development.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)は近年,ユーザのデバイスから機密データを収集,分析するための強力なパラダイムとして注目されている。
しかし, LDPプロトコルが付加する固有の摂動は, 収集データの有用性を低下させる。
この問題を緩和するために、いくつかの後処理法(PP)が開発されている。
しかし,様々な条件下でのPP法の比較性能は未定である。
本稿では,一般的なDPプロトコル6つ,PPメソッド7つ,ユーティリティメトリクス4つ,PPメソッドの動作と最適性を評価するためのデータセット6つからなる広域ベンチマークを提案する。
広範な実験を通じて、プライバシー予算が小さい場合(すなわち厳格なプライバシー)にPPは実用性を大幅に改善できるが、プライバシー予算が増加するにつれてその利益は減少することを示した。
さらに, 最適PP法は, LDPプロトコルの選択, プライバシ予算, データ特性(分布やドメインサイズなど), 特定効用指標など, 様々な要因に依存することが明らかとなった。
この領域の研究を進め、実践者がそれらの設定に最も適したPP法を特定するのを支援するために、オープンソースのベンチマークプラットフォームである LDP$^3$ を導入する。
LDP$^3$は、我々の実験分析で使われるすべてのメソッドを含み、将来の利用と開発のためにモジュラーで拡張性があり、マルチスレッドな方法で設計されている。
関連論文リスト
- LDP$^3$: An Extensible and Multi-Threaded Toolkit for Local Differential Privacy Protocols and Post-Processing Methods [1.0486921990935787]
ローカルディファレンシャルプライバシ(LDP)は、プライバシ保護データ収集において顕著な概念となっている。
本稿では, LDP研究者や実践者を対象としたオープンソース, ベンチマーク, マルチスレッドツールキットである LDP$3 を提示する。
論文 参考訳(メタデータ) (2025-07-08T10:51:42Z) - RL in Latent MDPs is Tractable: Online Guarantees via Off-Policy Evaluation [73.2390735383842]
付加的な構造仮定を伴わずにLMDPのサンプル効率アルゴリズムを初めて導入する。
楽観的な探索アルゴリズムのほぼ最適保証を導出するためにどのように使用できるかを示す。
これらの結果は、LMDP以外の幅広い対話型学習問題、特に部分的に観察された環境において有用である。
論文 参考訳(メタデータ) (2024-06-03T14:51:27Z) - Bayesian Prediction-Powered Inference [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
本稿では,ベイズ推定に基づくPPIのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-09T18:08:58Z) - Revealing the True Cost of Locally Differentially Private Protocols: An Auditing Perspective [4.5282933786221395]
本稿では,ローカルな差分秘密機構のプライバシー損失を実証的に推定する LDP-Auditor フレームワークについて紹介する。
我々は、異なるエンコーディングや摂動機能の影響など、プライバシー監査に影響を与える要因を幅広く検討する。
LDP-Auditorフレームワークは,現在最先端のLPP Pythonパッケージにバグが発見されている。
論文 参考訳(メタデータ) (2023-09-04T13:29:19Z) - Differential Privacy with Random Projections and Sign Random Projections [37.6593006747285]
iDP-SignRPは個人差分プライバシ設定(iDP)において極めて効果的である
DP-SignOPORPは、標準のDP設定の下で既存のアルゴリズムを大幅に改善する。
論文 参考訳(メタデータ) (2023-05-22T16:33:23Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Private and Utility Enhanced Recommendations with Local Differential
Privacy and Gaussian Mixture Model [14.213973630742666]
ローカル差動プライバシー(LDP)ベースの摂動メカニズムは、サービスプロバイダー(SP)に送信する前に、ユーザー側のユーザーデータにノイズを追加します。
LDPはユーザーのプライバシーをSPから保護しますが、予測精度が大幅に低下します。
提案手法は, LDPの原則に違反することなく, 推薦精度を向上する。
論文 参考訳(メタデータ) (2021-02-26T13:15:23Z) - Optimal Off-Policy Evaluation from Multiple Logging Policies [77.62012545592233]
我々は,複数のロギングポリシからオフ政治評価を行い,それぞれが一定のサイズ,すなわち階層化サンプリングのデータセットを生成する。
複数ロガーのOPE推定器は,任意のインスタンス,すなわち効率のよいインスタンスに対して最小分散である。
論文 参考訳(メタデータ) (2020-10-21T13:43:48Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。