論文の概要: Privacy-Aware Time Series Synthesis via Public Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2511.00700v1
- Date: Sat, 01 Nov 2025 20:44:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.900632
- Title: Privacy-Aware Time Series Synthesis via Public Knowledge Distillation
- Title(参考訳): 公開知識蒸留によるプライバシを考慮した時系列合成
- Authors: Penghang Liu, Haibei Zhu, Eleonora Kreacic, Svitlana Vyetrenko,
- Abstract要約: Pub2Privは、異種公共知識を活用することで、プライベート時系列データを生成する新しいフレームワークである。
我々のモデルは、公開データを時間的・機能的な埋め込みにエンコードする自己認識機構を採用している。
合成データの識別可能性を評価することにより、プライバシーを評価するための実用的な指標を提案する。
- 参考スコア(独自算出の注目度): 5.510212613486574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sharing sensitive time series data in domains such as finance, healthcare, and energy consumption, such as patient records or investment accounts, is often restricted due to privacy concerns. Privacy-aware synthetic time series generation addresses this challenge by enforcing noise during training, inherently introducing a trade-off between privacy and utility. In many cases, sensitive sequences is correlated with publicly available, non-sensitive contextual metadata (e.g., household electricity consumption may be influenced by weather conditions and electricity prices). However, existing privacy-aware data generation methods often overlook this opportunity, resulting in suboptimal privacy-utility trade-offs. In this paper, we present Pub2Priv, a novel framework for generating private time series data by leveraging heterogeneous public knowledge. Our model employs a self-attention mechanism to encode public data into temporal and feature embeddings, which serve as conditional inputs for a diffusion model to generate synthetic private sequences. Additionally, we introduce a practical metric to assess privacy by evaluating the identifiability of the synthetic data. Experimental results show that Pub2Priv consistently outperforms state-of-the-art benchmarks in improving the privacy-utility trade-off across finance, energy, and commodity trading domains.
- Abstract(参考訳): 金融、医療、エネルギー消費などの分野で、患者記録や投資口座などの機密時系列データを共有することは、プライバシー上の懸念から制限されることが多い。
プライバシを意識した合成時系列生成は、トレーニング中にノイズを強制し、本質的にはプライバシとユーティリティのトレードオフを導入することで、この課題に対処する。
多くの場合、センシティブなシーケンスは、一般に利用可能な非センシティブなコンテキストメタデータと相関する(例えば、家庭の電力消費は気象条件や電力価格に影響される可能性がある)。
しかし、プライバシを意識した既存のデータ生成方法は、しばしばこの機会を見落とし、最適化されたプライバシユーティリティーのトレードオフをもたらす。
本稿では、異種公共知識を活用して、プライベート時系列データを生成する新しいフレームワークPub2Privを提案する。
我々のモデルは,公開データを時間的および特徴的埋め込みにエンコードする自己保持機構を用いて,拡散モデルの条件入力として合成プライベートシーケンスを生成する。
さらに、合成データの識別可能性を評価することにより、プライバシーを評価するための実用的な指標を導入する。
実験の結果、Pub2Privは、金融、エネルギー、商品取引ドメイン間のプライバシー利用のトレードオフを改善するための最先端のベンチマークを一貫して上回っていることがわかった。
関連論文リスト
- Differentially Private Synthetic Data Release for Topics API Outputs [63.79476766779742]
当社では,Google ChromeのPrivacy Sandboxの一部として,1つのPrivacy-Preserving Ads API – Topics APIに注目しています。
実トピックAPIデータの再識別リスク特性と密に一致した、微分プライベートなデータセットを生成する。
これにより、外部の研究者がAPIを詳細に分析し、現実的な大規模データセットの事前および将来の作業の再現が可能になります。
論文 参考訳(メタデータ) (2025-06-30T13:46:57Z) - Synthetic Data Privacy Metrics [2.1213500139850017]
我々は、敵攻撃のシミュレーションを含む人気のある指標の長所と短所を概観する。
また、生成モデルを修正して、作成するデータのプライバシを高めるための現在のベストプラクティスについてもレビューします。
論文 参考訳(メタデータ) (2025-01-07T17:02:33Z) - Differentially Private Publication of Electricity Time Series Data in Smart Grids [8.87717126222646]
地理的地域における電力消費の時系列は、消費者の行動研究やエネルギー政策決定の指針となる貴重なデータ源である。
しかし、そのようなデータの公開は、個人の習慣やライフスタイルに関する繊細な詳細を明らかにする可能性があるため、重要なプライバシー問題を引き起こす。
本稿では,DP 準拠の電力消費データ公開のための新手法である EmT (S Private Timeseries) を紹介する。
論文 参考訳(メタデータ) (2024-08-24T23:30:09Z) - Synthetic Data: Revisiting the Privacy-Utility Trade-off [4.832355454351479]
ある記事は、合成データは従来の匿名化技術よりもプライバシーとユーティリティのトレードオフが良くないと述べている。
本稿で記述したプライバシゲームの実装を分析し,高度に専門的で制約のある環境で動作していることを確認した。
論文 参考訳(メタデータ) (2024-07-09T14:48:43Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Synthetic Text Generation with Differential Privacy: A Simple and
Practical Recipe [32.63295550058343]
テキスト領域におけるシンプルで実用的なレシピは、強力なプライバシー保護を備えた有用な合成テキストを生成するのに有効であることを示す。
提案手法は,非私的テキストと実用性で競合する合成テキストを生成する。
論文 参考訳(メタデータ) (2022-10-25T21:21:17Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。