論文の概要: Dual Utilization of Perturbation for Stream Data Publication under Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2504.14993v1
- Date: Mon, 21 Apr 2025 09:51:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 15:24:06.47773
- Title: Dual Utilization of Perturbation for Stream Data Publication under Local Differential Privacy
- Title(参考訳): 局所微分プライバシー下におけるストリームデータ公開のための摂動の二重利用
- Authors: Rong Du, Qingqing Ye, Yaxin Xiao, Liantong Yu, Yue Fu, Haibo Hu,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)が有望な標準として登場した。
ストリームデータにLDPを適用することは、大きなあるいは無限の値を含む場合が多いため、大きな課題となる。
本稿では、電流摂動結果を用いてその後の摂動過程を校正する反復摂動IPP法を提案する。
これら3つのアルゴリズムが差分プライバシーを$w$-eventで満たし、実用性を大幅に向上することを証明する。
- 参考スコア(独自算出の注目度): 10.07017446059039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stream data from real-time distributed systems such as IoT, tele-health, and crowdsourcing has become an important data source. However, the collection and analysis of user-generated stream data raise privacy concerns due to the potential exposure of sensitive information. To address these concerns, local differential privacy (LDP) has emerged as a promising standard. Nevertheless, applying LDP to stream data presents significant challenges, as stream data often involves a large or even infinite number of values. Allocating a given privacy budget across these data points would introduce overwhelming LDP noise to the original stream data. Beyond existing approaches that merely use perturbed values for estimating statistics, our design leverages them for both perturbation and estimation. This dual utilization arises from a key observation: each user knows their own ground truth and perturbed values, enabling a precise computation of the deviation error caused by perturbation. By incorporating this deviation into the perturbation process of subsequent values, the previous noise can be calibrated. Following this insight, we introduce the Iterative Perturbation Parameterization (IPP) method, which utilizes current perturbed results to calibrate the subsequent perturbation process. To enhance the robustness of calibration and reduce sensitivity, two algorithms, namely Accumulated Perturbation Parameterization (APP) and Clipped Accumulated Perturbation Parameterization (CAPP) are further developed. We prove that these three algorithms satisfy $w$-event differential privacy while significantly improving utility. Experimental results demonstrate that our techniques outperform state-of-the-art LDP stream publishing solutions in terms of utility, while retaining the same privacy guarantee.
- Abstract(参考訳): IoT、テレヘルス、クラウドソーシングといったリアルタイム分散システムからのデータストリームは、重要なデータソースとなっている。
しかし、ユーザ生成ストリームデータの収集と分析は、機密情報の潜在的な暴露によるプライバシー上の懸念を提起する。
これらの懸念に対処するため、ローカルディファレンシャルプライバシ(LDP)が有望な標準として登場した。
それでも、ストリームデータに LDP を適用することは、大きなあるいは無限の値を含む場合が多いため、大きな課題となる。
これらのデータポイントに所定のプライバシー予算を割り当てると、元のストリームデータに圧倒的なLDPノイズが発生する。
単に摂動値を使って統計を推定する既存のアプローチ以外にも、我々の設計では摂動と推定の両方にそれらを活用しています。
この二重利用は、各ユーザが自身の基底真理と摂動値を知っていて、摂動に起因する偏差誤差の正確な計算を可能にする、重要な観察から生じる。
この偏差をその後の値の摂動過程に組み込むことで、前のノイズを校正することができる。
この知見に従えば、現在の摂動結果を用いてその後の摂動過程を校正する反復摂動パラメータ化法(IPP)を導入する。
キャリブレーションの堅牢性を高め、感度を低下させるため、さらに2つのアルゴリズム、すなわち、累積摂動パラメータ化(APP)とクラッピング摂動パラメータ化(CAPP)が開発された。
これら3つのアルゴリズムが差分プライバシーを$w$-eventで満たし、実用性を大幅に向上することを証明する。
実験結果から,本手法は実用性の観点からは最先端のLPPストリームパブリッシングソリューションよりも優れており,プライバシー保証は同じであることがわかった。
関連論文リスト
- Federated Learning with Differential Privacy: An Utility-Enhanced Approach [12.614480013684759]
フェデレーション学習は、クライアントのデータを共有する必要性をなくすことによって、データのプライバシを保護するための魅力的なアプローチとして現れている。
最近の研究では、フェデレートされた学習だけではプライバシーが保証されないことが示されている。
本稿では,これらのバニラ微分プライベートアルゴリズムを,ハールウェーブレット変換ステップとノイズの分散を著しく低減する新しいノイズ注入方式に基づいて修正する。
論文 参考訳(メタデータ) (2025-03-27T04:48:29Z) - Privacy for Free: Leveraging Local Differential Privacy Perturbed Data from Multiple Services [10.822843258077997]
ローカル微分プライバシー(LDP)は、現代のデータ分析において広く採用されているプライバシー保護技術である。
本稿では,複数のサービスからの摂動情報に基づいてデータを収集・集約するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-11T11:10:03Z) - Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Data value estimation on private gradients [84.966853523107]
勾配に基づく機械学習(ML)法では、デファクト微分プライバシー技術がランダムノイズで勾配を乱している。
データバリュエーションは、トレーニングデータにMLのパフォーマンスを特性付け、DPの強制を必要とするプライバシーに配慮したアプリケーションで広く使用されている。
我々は,データ値推定の不確かさをパラドックス的に線形に評価し,評価予算を増大させるため,勾配に不規則な雑音を注入するというデフォルトのアプローチを伴わないことを示す。
提案手法は, 予測の不確実性の線形化を確実に除去するために, 慎重に相関ノイズを注入することである。
論文 参考訳(メタデータ) (2024-12-22T13:15:51Z) - $(ε, δ)$-Differentially Private Partial Least Squares Regression [1.8666451604540077]
我々は,モデルに基づくデータのプライバシーを確保するために,$(epsilon, delta)$-differentially private PLS (edPLS)アルゴリズムを提案する。
実験により、EDPLSはトレーニングデータに固有の変動源を回復することを目的とした、効果的なプライバシー攻撃を施すことが示されている。
論文 参考訳(メタデータ) (2024-12-12T10:49:55Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Noisy Data Meets Privacy: Training Local Models with Post-Processed Remote Queries [7.993286956508782]
LDPKiTは、プライベートデータ配信に合わせたプライバシ保護推論データセットを生成する。
Fashion-MNIST、SVHN、PathMNISTの医療データセットの実験は、LDPKiTがプライバシーを維持しながら有効性を向上させることを示した。
論文 参考訳(メタデータ) (2024-05-25T21:53:58Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。