論文の概要: Frequency Estimation of Correlated Multi-attribute Data under Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2507.17516v1
- Date: Wed, 23 Jul 2025 13:52:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:15.025173
- Title: Frequency Estimation of Correlated Multi-attribute Data under Local Differential Privacy
- Title(参考訳): 局所微分プライバシーに基づく相関多属性データの周波数推定
- Authors: Shafizur Rahman Seeam, Ye Zheng, Yidan Hu,
- Abstract要約: ローカル微分プライバシー(LDP)は、ユーザのデータプライバシを保護する強力なツールである。
既存のLDPメカニズムは、すべての属性にプライバシ予算を分割するか、それぞれの属性を独立して扱うかのいずれかである。
我々は属性間の相関を利用して実用性を大幅に向上する新しいLCP機構であるCorrelated Randomized Response (Corr-RR)を提案する。
- 参考スコア(独自算出の注目度): 5.258253745672122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale data collection, from national censuses to IoT-enabled smart homes, routinely gathers dozens of attributes per individual. These multi-attribute datasets are vital for analytics but pose significant privacy risks. Local Differential Privacy (LDP) is a powerful tool to protect user data privacy by allowing users to locally perturb their records before releasing to an untrusted data aggregator. However, existing LDP mechanisms either split the privacy budget across all attributes or treat each attribute independently, ignoring natural inter-attribute correlations. This leads to excessive noise or fragmented budgets, resulting in significant utility loss, particularly in high-dimensional settings. To overcome these limitations, we propose Correlated Randomized Response (Corr-RR), a novel LDP mechanism that leverages correlations among attributes to substantially improve utility while maintaining rigorous LDP guarantees. Corr-RR allocates the full privacy budget to perturb a single, randomly selected attribute and reconstructs the remaining attributes using estimated interattribute dependencies, without incurring additional privacy cost. To enable this, Corr-RR operates in two phases: (1) a subset of users apply standard LDP mechanisms to estimate correlations, and (2) each remaining user perturbs one attribute and infers the others using the learned correlations. We theoretically prove that Corr-RR satisfies $\epsilon$-LDP, and extensive experiments on synthetic and real-world datasets demonstrate that Corr-RR consistently outperforms state-of-the-art LDP mechanisms, particularly in scenarios with many attributes and strong inter-attribute correlations.
- Abstract(参考訳): 全国の国勢調査からIoT対応のスマートホームまで、大規模なデータ収集は、個人ごとに数十の属性を定期的に収集する。
これらのマルチ属性データセットは分析に不可欠だが、重大なプライバシーリスクを生じさせる。
Local Differential Privacy(LDP)は、ユーザが信頼できないデータアグリゲータにリリースする前に、ローカルにデータを摂動させることによって、ユーザのデータプライバシを保護する強力なツールである。
しかしながら、既存のLDPメカニズムは、すべての属性にプライバシ予算を分割するか、個々の属性を個別に扱い、自然な属性間相関を無視している。
これは、特に高次元の設定において、過度なノイズや断片化された予算をもたらす。
このような制約を克服するために,属性間の相関を利用して厳密なLDP保証を維持しながら実用性を大幅に向上する新しいLDP機構であるCorrelated Randomized Response (Corr-RR)を提案する。
Corr-RRは、完全なプライバシ予算を割り当てて、1つのランダムに選択された属性を摂動させ、追加のプライバシコストを発生させることなく、推定された属性間の依存関係を使用して残りの属性を再構築する。
これを実現するために、Corr-RR は、(1) ユーザのサブセットが相関を推定するために標準の LDP メカニズムを適用し、(2) 残りのユーザそれぞれが1つの属性を摂動し、学習した相関を使って他者を推論する。
Corr-RR が$\epsilon$-LDP を満たすことを理論的に証明し、Corr-RR が常に最先端の LDP メカニズム、特に多くの属性と強い属性間相関を持つシナリオにおいて上回っていることを示す。
関連論文リスト
- Locally Differentially Private Frequency Estimation via Joint Randomized Response [14.398663407098836]
ローカル微分プライバシー(LDP)は、信頼できないデータコレクタに対してデータコントリビュータにデータプライバシの強力な理論的保証を提供する強力なツールとして広く認識されている。
既存のLDPメカニズムに共通するのは、プライバシ保護とデータユーティリティのレベルでのトレードオフである。
本稿では, 相関データ摂動に基づく新しい共振応答(JRR)機構を提案し, 局所的に個人周波数を推定する。
論文 参考訳(メタデータ) (2025-05-15T14:41:03Z) - Bipartite Randomized Response Mechanism for Local Differential Privacy [12.356030528988002]
BRR(Bipartite Randomized Response)と呼ばれる適応型ローカルプライバシ(LDP)機構を導入する。
あらゆるユーティリティ機能やプライバシレベルにおいて、この問題を解決することは、リリース確率の真のデータとして扱われる高ユーティリティデータの数を確認することと等価であることを示す。
我々のBRRは、連続型と分散型の両方の最先端のLPPメカニズムを著しく上回っている。
論文 参考訳(メタデータ) (2025-04-29T16:39:50Z) - Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - $(ε, δ)$-Differentially Private Partial Least Squares Regression [1.8666451604540077]
我々は,モデルに基づくデータのプライバシーを確保するために,$(epsilon, delta)$-differentially private PLS (edPLS)アルゴリズムを提案する。
実験により、EDPLSはトレーニングデータに固有の変動源を回復することを目的とした、効果的なプライバシー攻撃を施すことが示されている。
論文 参考訳(メタデータ) (2024-12-12T10:49:55Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - (Local) Differential Privacy has NO Disparate Impact on Fairness [4.157415305926584]
ローカル微分プライバシー(LDP)は、現実世界のアプリケーションで広く採用されている。
本稿では,LPP下での複数属性の収集が公平性に及ぼす影響を実証研究する。
論文 参考訳(メタデータ) (2023-04-25T14:18:12Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Calibrated Feature Decomposition for Generalizable Person
Re-Identification [82.64133819313186]
Calibrated Feature Decomposition (CFD)モジュールは、人物の再識別の一般化能力の向上に焦点を当てている。
キャリブレーション・アンド・スタンダード化されたバッチ正規化(CSBN)は、キャリブレーションされた人物表現を学習するために設計されている。
論文 参考訳(メタデータ) (2021-11-27T17:12:43Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。