論文の概要: Cooperative Local Differential Privacy: Securing Time Series Data in Distributed Environments
- arxiv url: http://arxiv.org/abs/2511.09696v1
- Date: Fri, 14 Nov 2025 01:04:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.421327
- Title: Cooperative Local Differential Privacy: Securing Time Series Data in Distributed Environments
- Title(参考訳): 協調的局所微分プライバシー:分散環境における時系列データ保護
- Authors: Bikash Chandra Singh, Md Jakir Hossain, Rafael Diaz, Sandip Roy, Ravi Mukkamala, Sachin Shetty,
- Abstract要約: 本稿では,複数のユーザに対してノイズベクトルを分散させることにより,プライバシを高める,協調的局所微分プライバシー(CLDP)機構を提案する。
提案手法では、ノイズが協調的に生成され、全てのユーザのデータが集約されると、個々のプライバシーを保護しながら、全体の統計特性を保存することをキャンセルする。
- 参考スコア(独自算出の注目度): 5.982082746731629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid growth of smart devices such as phones, wearables, IoT sensors, and connected vehicles has led to an explosion of continuous time series data that offers valuable insights in healthcare, transportation, and more. However, this surge raises significant privacy concerns, as sensitive patterns can reveal personal details. While traditional differential privacy (DP) relies on trusted servers, local differential privacy (LDP) enables users to perturb their own data. However, traditional LDP methods perturb time series data by adding user-specific noise but exhibit vulnerabilities. For instance, noise applied within fixed time windows can be canceled during aggregation (e.g., averaging), enabling adversaries to infer individual statistics over time, thereby eroding privacy guarantees. To address these issues, we introduce a Cooperative Local Differential Privacy (CLDP) mechanism that enhances privacy by distributing noise vectors across multiple users. In our approach, noise is collaboratively generated and assigned so that when all users' perturbed data is aggregated, the noise cancels out preserving overall statistical properties while protecting individual privacy. This cooperative strategy not only counters vulnerabilities inherent in time-window-based methods but also scales effectively for large, real-time datasets, striking a better balance between data utility and privacy in multiuser environments.
- Abstract(参考訳): スマートフォン、ウェアラブル、IoTセンサー、コネクテッドカーなどのスマートデバイスの急速な成長は、医療、輸送などに関する貴重な洞察を提供する連続時系列データの爆発的な増加につながった。
しかし、この急上昇は、機密性の高いパターンが個人の詳細を明らかにする可能性があるため、プライバシー上の重大な懸念を生じさせる。
従来の差分プライバシ(DP)は信頼できるサーバに依存しているが、ローカル差分プライバシ(LDP)はユーザが自身のデータを摂動することを可能にする。
しかし,従来のLDP手法は,ユーザ固有のノイズを付加して時系列データを摂動するが,脆弱性が現れる。
例えば、固定時間ウィンドウに適用されるノイズはアグリゲーション中にキャンセルされ(例えば平均化)、敵は時間とともに個々の統計を推測し、プライバシー保証を損なうことができる。
これらの問題に対処するために,複数のユーザに対してノイズベクトルを分散することにより,プライバシーを向上する,協調的局所微分プライバシー(CLDP)機構を導入する。
提案手法では, ノイズを協調的に生成し, ユーザの摂動データを集約すると, 個々のプライバシ保護を行いながら, 全体的な統計特性の保存をキャンセルする。
この協力戦略は、タイムウインドウの手法に固有の脆弱性に対処するだけでなく、大規模でリアルタイムなデータセットを効果的にスケールし、マルチユーザ環境におけるデータユーティリティとプライバシのバランスを改善する。
関連論文リスト
- Improving Noise Efficiency in Privacy-preserving Dataset Distillation [59.57846442477106]
本稿では,最適化からサンプリングを分離してコンバージェンスを向上し,信号品質を向上させる新しいフレームワークを提案する。
CIFAR-10では,従来の最先端手法の蒸留セットサイズを5分の1に減らして,クラス毎50イメージでtextbf10.0%,クラス毎50イメージで textbf8.3%向上した。
論文 参考訳(メタデータ) (2025-08-03T13:15:52Z) - Dimension Reduction via Random Projection for Privacy in Multi-Agent Systems [1.3812010983144802]
マルチエージェントシステムでは、個々のエージェントが環境の様々な側面を観察し、その情報を中央エンティティに送信する。
クラウドソースによる交通監視システムでは、通勤者は現在の速度だけでなく、位置情報などの機密情報を共有して、より正確な経路予測を可能にする。
本稿では,共有データの衛生化にロバストな概念を活かした圧縮に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-05T10:09:13Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Measuring Privacy Loss in Distributed Spatio-Temporal Data [26.891854386652266]
本稿では,情報提供者による位置復元攻撃に対する代替プライバシ損失を提案する。
実データと合成データに関する我々の実験は、分散環境での個人のプライバシー侵害に対する直感を反映していることを示している。
論文 参考訳(メタデータ) (2024-02-18T09:53:14Z) - PrivAgE: A Toolchain for Privacy-Preserving Distributed Aggregation on Edge-Devices [0.5216865930622505]
ローカルデータの分散したプライバシ保護アグリゲーションのためのPrivAgEというツールチェーンを提案する。
分散アグリゲーションはセキュアな和に基づいており、同時に差分プライバシーの概念を満たす。
ヒストグラムの総和を分散クラスタリングに拡張することにより,ツールチェーンの柔軟性を実証する。
論文 参考訳(メタデータ) (2023-09-21T20:55:29Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Privacy-Aware Time-Series Data Sharing with Deep Reinforcement Learning [33.42328078385098]
時系列データ共有におけるプライバシーユーティリティトレードオフ(PUT)について検討する。
現時点でのプライバシを保存する方法は、トレースレベルでかなりの量の情報をリークする可能性がある。
我々は、ユーザの真のデータシーケンスの歪んだバージョンを、信頼できない第三者と共有することを検討する。
論文 参考訳(メタデータ) (2020-03-04T18:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。