論文の概要: Correlated-Sequence Differential Privacy
- arxiv url: http://arxiv.org/abs/2511.18025v1
- Date: Sat, 22 Nov 2025 11:28:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.590241
- Title: Correlated-Sequence Differential Privacy
- Title(参考訳): 相関系列差分プライバシー
- Authors: Yifan Luo, Meng Zhang, Jin Xu, Junting Chen, Jianwei Huang,
- Abstract要約: Correlated-Sequence Differential Privacy (CSDP) は、関連するシーケンシャルデータにプライバシを保存するために設計されている。
CSDPは、2つの関連する課題に対処する: 攻撃者が共同時間リンクとクロスシーケンスリンクから得られる余分な情報を定量化し、その情報を隠すのに十分なノイズを追加する。
2シーケンスデータセットのテストでは、CSDPは既存の相関DPメソッドに比べて、プライバシーとユーティリティのトレードオフを約50%改善している。
- 参考スコア(独自算出の注目度): 32.411989837842086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data streams collected from multiple sources are rarely independent. Values evolve over time and influence one another across sequences. These correlations improve prediction in healthcare, finance, and smart-city control yet violate the record-independence assumption built into most Differential Privacy (DP) mechanisms. To restore rigorous privacy guarantees without sacrificing utility, we introduce Correlated-Sequence Differential Privacy (CSDP), a framework specifically designed for preserving privacy in correlated sequential data. CSDP addresses two linked challenges: quantifying the extra information an attacker gains from joint temporal and cross-sequence links, and adding just enough noise to hide that information while keeping the data useful. We model multivariate streams as a Coupling Markov Chain, yielding the derived loose leakage bound expressed with a few spectral terms and revealing a counterintuitive result: stronger coupling can actually decrease worst-case leakage by dispersing perturbations across sequences. Guided by these bounds, we build the Freshness-Regulated Adaptive Noise (FRAN) mechanism--combining data aging, correlation-aware sensitivity scaling, and Laplace noise--that runs in linear time. Tests on two-sequence datasets show that CSDP improves the privacy-utility trade-off by approximately 50% over existing correlated-DP methods and by two orders of magnitude compared to the standard DP approach.
- Abstract(参考訳): 複数のソースから収集されたデータストリームは、ほとんど独立しない。
価値は時間とともに進化し、シーケンス間で互いに影響を与えます。
これらの相関関係は、医療、金融、スマートシティ制御における予測を改善するが、ほとんどの差分プライバシー(DP)メカニズムに組み込まれた記録的独立性前提に反する。
実用性を犠牲にすることなく厳密なプライバシ保証を回復するために、相関シーケンシャルデータにおけるプライバシの保護に特化したフレームワークであるCorrelated-Sequence Differential Privacy (CSDP)を導入する。
CSDPは2つの関連する課題に対処する: 攻撃者が共同時間リンクとクロスシーケンスリンクから取得した余分な情報を定量化し、データを有用に保ちながらその情報を隠蔽するのに十分なノイズを追加する。
我々は多変量ストリームを結合マルコフ連鎖としてモデル化し、導出されたゆるい漏れをいくつかのスペクトル項で表現し、逆直観的な結果を示す。
これらの境界によって導かれるフレッシュネス制御適応ノイズ(FRAN)機構を構築し、データ老化、相関認識感度スケーリング、ラプラスノイズを線形時間で行う。
2シーケンスデータセットのテストでは、CSDPは既存の相関DP法に比べて約50%、標準DP法に比べて2桁程度、プライバシとユーティリティのトレードオフを改善している。
関連論文リスト
- Spectral Graph Clustering under Differential Privacy: Balancing Privacy, Accuracy, and Efficiency [53.98433419539793]
エッジ差分プライバシー(DP)下におけるスペクトルグラフクラスタリングの問題点について検討する。
具体的には, (i) エッジフリップによるグラフ摂動と, エッジプライバシを強制する隣接行列シャッフルを併用したグラフ摂動, (ii) 次元と複雑性の複雑さを低減するために低次元空間における加法的ガウス雑音を伴うプライベートグラフプロジェクション, (iii) 収束性を維持しながらエッジDPを確保するために反復的にガウス雑音を分散するノイズの多いパワーイテレーション手法である。
論文 参考訳(メタデータ) (2025-10-08T15:30:27Z) - Improving Noise Efficiency in Privacy-preserving Dataset Distillation [59.57846442477106]
本稿では,最適化からサンプリングを分離してコンバージェンスを向上し,信号品質を向上させる新しいフレームワークを提案する。
CIFAR-10では,従来の最先端手法の蒸留セットサイズを5分の1に減らして,クラス毎50イメージでtextbf10.0%,クラス毎50イメージで textbf8.3%向上した。
論文 参考訳(メタデータ) (2025-08-03T13:15:52Z) - KL-regularization Itself is Differentially Private in Bandits and RLHF [33.10013796063427]
差分プライバシー(DP)は、プライバシーのための厳格なフレームワークを提供し、単一のエントリで異なるデータセット間で統計的に区別できないデータ駆動アルゴリズムの出力を保証する。
「一般に、DPを保証するためには、アルゴリズム自体または出力に明示的にノイズを注入する必要があるが、既存のアルゴリズムの固有のランダム性は、DPを無償で達成する機会を与える。」
論文 参考訳(メタデータ) (2025-05-23T22:22:02Z) - Dual Utilization of Perturbation for Stream Data Publication under Local Differential Privacy [10.07017446059039]
ローカルディファレンシャルプライバシ(LDP)が有望な標準として登場した。
ストリームデータにLDPを適用することは、大きなあるいは無限の値を含む場合が多いため、大きな課題となる。
本稿では、電流摂動結果を用いてその後の摂動過程を校正する反復摂動IPP法を提案する。
これら3つのアルゴリズムが差分プライバシーを$w$-eventで満たし、実用性を大幅に向上することを証明する。
論文 参考訳(メタデータ) (2025-04-21T09:51:18Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。