論文の概要: KV-Auditor: Auditing Local Differential Privacy for Correlated Key-Value Estimation
- arxiv url: http://arxiv.org/abs/2508.11495v1
- Date: Fri, 15 Aug 2025 14:17:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:24.04344
- Title: KV-Auditor: Auditing Local Differential Privacy for Correlated Key-Value Estimation
- Title(参考訳): KV-Auditor: 相関キー値推定のための局所微分プライバシーの検討
- Authors: Jingnan Xu, Leixia Wang, Xiaofeng Meng,
- Abstract要約: 我々は,LDPに基づくキー値推定機構を監査するフレームワークであるKV-Auditorを提案する。
我々は、最先端のLPPキー値機構を対話型および非対話型に分類する。
インタラクティブなメカニズムのために、繰り返しにまたがるインクリメンタルなプライバシリークをキャプチャするためのセグメンテーション戦略を設計する。
- 参考スコア(独自算出の注目度): 3.1960143210470973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To protect privacy for data-collection-based services, local differential privacy (LDP) is widely adopted due to its rigorous theoretical bound on privacy loss. However, mistakes in complex theoretical analysis or subtle implementation errors may undermine its practical guarantee. To address this, auditing is crucial to confirm that LDP protocols truly protect user data. However, existing auditing methods, though, mainly target machine learning and federated learning tasks based on centralized differentially privacy (DP), with limited attention to LDP. Moreover, the few studies on LDP auditing focus solely on simple frequency estimation task for discrete data, leaving correlated key-value data - which requires both discrete frequency estimation for keys and continuous mean estimation for values - unexplored. To bridge this gap, we propose KV-Auditor, a framework for auditing LDP-based key-value estimation mechanisms by estimating their empirical privacy lower bounds. Rather than traditional LDP auditing methods that relies on binary output predictions, KV-Auditor estimates this lower bound by analyzing unbounded output distributions, supporting continuous data. Specifically, we classify state-of-the-art LDP key-value mechanisms into interactive and non-interactive types. For non-interactive mechanisms, we propose horizontal KV-Auditor for small domains with sufficient samples and vertical KV-Auditor for large domains with limited samples. For interactive mechanisms, we design a segmentation strategy to capture incremental privacy leakage across iterations. Finally, we perform extensive experiments to validate the effectiveness of our approach, offering insights for optimizing LDP-based key-value estimators.
- Abstract(参考訳): データ収集ベースのサービスのプライバシを保護するため、ローカルディファレンシャルプライバシ(LDP)が広く採用されている。
しかし、複雑な理論解析や微妙な実装上の誤りは、その現実的な保証を損なう可能性がある。
これを解決するためには,LDPプロトコルがユーザデータを真に保護していることを確認することが重要である。
しかし,従来の監査手法は主に,集中型差分プライバシー(DP)に基づく機械学習とフェデレーション学習タスクを対象とし,LPPに限定的な注意を払っている。
さらに, LDP監査における数少ない研究は, 鍵の離散周波数推定と値の連続平均推定の両方を必要とする相関キー値データを残し, 離散データに対する単純な周波数推定にのみ焦点を絞っている。
このギャップを埋めるために、経験的プライバシーの低い境界を推定し、LDPに基づく鍵値推定機構を監査するフレームワークであるKV-Auditorを提案する。
バイナリ出力予測に依存する従来のLDP監査手法ではなく、KV-Auditorは、非有界出力分布を解析し、連続データをサポートすることにより、この下限を推定する。
具体的には、最先端のLDPキー値機構を対話型および非対話型に分類する。
非インタラクティブなメカニズムでは、サンプルが十分で、サンプルが限られている大領域では垂直なKV-Auditorが提案される。
インタラクティブなメカニズムのために、繰り返しにまたがるインクリメンタルなプライバシリークをキャプチャするためのセグメンテーション戦略を設計する。
最後に,提案手法の有効性を検証し,LDPに基づく鍵値推定器を最適化するための知見を提供する。
関連論文リスト
- Balancing Privacy and Utility in Correlated Data: A Study of Bayesian Differential Privacy [4.5885800765465135]
差分プライベート(DP)システムにおけるプライバシリスクは,データの相関によって著しく増加する。
現実世界のデータベースにおける依存関係の多様さを考えると、この監視はプライバシー保護にとって重要な課題となる。
BDPはこれらの相関を考慮するためにDPを拡張しているが、現在のBDPメカニズムは、その採用を制限する顕著なユーティリティ損失を示している。
論文 参考訳(メタデータ) (2025-06-26T14:25:44Z) - Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Federated Experiment Design under Distributed Differential Privacy [31.06808163362162]
我々は,サービス提供者に対する信頼を最小限にしつつ,ユーザのプライバシの厳格な保護に注力する。
現代のA/Bテストにおいて重要な要素であるが、これまではプライベート分散実験は研究されていない。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
論文 参考訳(メタデータ) (2023-11-07T22:38:56Z) - Revealing the True Cost of Locally Differentially Private Protocols: An Auditing Perspective [4.5282933786221395]
本稿では,ローカルな差分秘密機構のプライバシー損失を実証的に推定する LDP-Auditor フレームワークについて紹介する。
我々は、異なるエンコーディングや摂動機能の影響など、プライバシー監査に影響を与える要因を幅広く検討する。
LDP-Auditorフレームワークは,現在最先端のLPP Pythonパッケージにバグが発見されている。
論文 参考訳(メタデータ) (2023-09-04T13:29:19Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。