論文の概要: Learning to Attack: Uncovering Privacy Risks in Sequential Data Releases
- arxiv url: http://arxiv.org/abs/2510.24807v1
- Date: Tue, 28 Oct 2025 04:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.586048
- Title: Learning to Attack: Uncovering Privacy Risks in Sequential Data Releases
- Title(参考訳): 攻撃への学習: シークエンシャルデータリリースにおけるプライバシーリスクを明らかにする
- Authors: Ziyao Cui, Minxing Zhang, Jian Pei,
- Abstract要約: 連続する出版物間の依存関係を利用して、攻撃者がシーケンシャルなデータリリースでプライバシーを侵害できるかどうかを検討する。
本稿では,Hidden Markovモデルと強化学習に基づく双方向推論機構を統合することで,これらのシーケンシャルな依存関係を捕捉する新たな攻撃モデルを提案する。
この結果から,個別に保護されたリリースが時間的解析を行うと,センシティブな情報を総合的に漏洩させるという,シーケンシャルなデータ公開に固有の基本的プライバシーリスクが明らかになった。
- 参考スコア(独自算出の注目度): 6.8930591070765495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy concerns have become increasingly critical in modern AI and data science applications, where sensitive information is collected, analyzed, and shared across diverse domains such as healthcare, finance, and mobility. While prior research has focused on protecting privacy in a single data release, many real-world systems operate under sequential or continuous data publishing, where the same or related data are released over time. Such sequential disclosures introduce new vulnerabilities, as temporal correlations across releases may enable adversaries to infer sensitive information that remains hidden in any individual release. In this paper, we investigate whether an attacker can compromise privacy in sequential data releases by exploiting dependencies between consecutive publications, even when each individual release satisfies standard privacy guarantees. To this end, we propose a novel attack model that captures these sequential dependencies by integrating a Hidden Markov Model with a reinforcement learning-based bi-directional inference mechanism. This enables the attacker to leverage both earlier and later observations in the sequence to infer private information. We instantiate our framework in the context of trajectory data, demonstrating how an adversary can recover sensitive locations from sequential mobility datasets. Extensive experiments on Geolife, Porto Taxi, and SynMob datasets show that our model consistently outperforms baseline approaches that treat each release independently. The results reveal a fundamental privacy risk inherent to sequential data publishing, where individually protected releases can collectively leak sensitive information when analyzed temporally. These findings underscore the need for new privacy-preserving frameworks that explicitly model temporal dependencies, such as time-aware differential privacy or sequential data obfuscation strategies.
- Abstract(参考訳): プライバシーに関する懸念は、機密情報を収集、分析、共有し、医療、金融、モビリティといったさまざまな領域で共有する、現代のAIやデータサイエンスアプリケーションにおいてますます重要になっている。
以前の研究では、単一のデータリリースにおけるプライバシ保護に重点を置いていたが、多くの現実世界のシステムはシーケンシャルまたは連続的なデータパブリッシングの下で運用されており、同じまたは関連するデータが時間とともにリリースされている。
このようなシーケンシャルな開示は、リリース間の時間的相関によって、個々のリリースに隠されている機密情報を敵が推測できるような、新たな脆弱性をもたらす。
本稿では,各リリースが標準プライバシ保証を満たしている場合でも,連続的な出版物間の依存関係を利用して,攻撃者がシーケンシャルなデータリリースでプライバシを侵害できるかどうかを検討する。
そこで本研究では,Hidden Markovモデルと強化学習に基づく双方向推論機構を組み合わせることで,これらのシーケンシャルな依存関係を捕捉する新たな攻撃モデルを提案する。
これにより攻撃者は、シークエンスにおける以前の観測と後の観測の両方を利用してプライベート情報を推測することができる。
我々のフレームワークをトラジェクトリデータという文脈でインスタンス化し、敵がシーケンシャルなモビリティデータセットからセンシティブな位置を回復する方法を実証する。
Geolife、Porto Taxi、SynMobのデータセットに関する大規模な実験は、我々のモデルは、各リリースを独立して扱うベースラインアプローチを一貫して上回っていることを示している。
その結果、シーケンシャルなデータ公開に固有の基本的なプライバシーリスクが明らかになった。
これらの調査結果は、時間認識の差分プライバシーやシーケンシャルデータ難読化戦略など、時間依存を明示的にモデル化する新たなプライバシ保護フレームワークの必要性を浮き彫りにしている。
関連論文リスト
- Synth-MIA: A Testbed for Auditing Privacy Leakage in Tabular Data Synthesis [8.4361320391543]
タブラル生成モデルは、トレーニングデータに似た合成データセットを作成することによって、プライバシを保護するとしばしば主張される。
会員推論攻撃(MIA)は、最近、合成データのプライバシー漏洩を評価する方法として登場した。
合成データセットの最大プライバシー漏洩を推定するために、攻撃の集合をデプロイする統一的モデルに依存しない脅威フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-22T16:53:38Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - DATABench: Evaluating Dataset Auditing in Deep Learning from an Adversarial Perspective [70.77570343385928]
内的特徴(IF)と外的特徴(EF)(監査のための技術導入)に依存した既存手法の分類を新たに導入する。
回避攻撃(evasion attack)は、データセットの使用を隠蔽するために設計されたもので、偽造攻撃(forgery attack)は、未使用のデータセットを誤って含んでいることを意図している。
さらに,既存手法の理解と攻撃目標に基づいて,回避のための分離・除去・検出,偽造の逆例に基づく攻撃方法など,系統的な攻撃戦略を提案する。
私たちのベンチマークであるData dataBenchは、17の回避攻撃、5の偽攻撃、9の攻撃で構成されています。
論文 参考訳(メタデータ) (2025-07-08T03:07:15Z) - Enforcing Demographic Coherence: A Harms Aware Framework for Reasoning about Private Data Release [14.939460540040459]
データプライバシに必要であると主張するプライバシ攻撃にインスパイアされた、人口統計コヒーレンスを導入します。
我々のフレームワークは信頼性評価予測に重点を置いており、ほぼすべてのデータインフォームドプロセスから蒸留することができる。
差分的にプライベートなデータリリースはすべて、人口統計学的にコヒーレントであること、および、差分的にプライベートではない人口統計学的にコヒーレントなアルゴリズムがあることを実証する。
論文 参考訳(メタデータ) (2025-02-04T20:42:30Z) - Tabular Data Synthesis with Differential Privacy: A Survey [24.500349285858597]
データ共有はコラボレーティブなイノベーションの前提条件であり、さまざまなデータセットを活用して深い洞察を得ることを可能にします。
データ合成は、実際のデータの統計特性を保存する人工データセットを生成することで、この問題に対処する。
プライバシーに配慮したデータ共有に対する、有望なアプローチとして、異なるプライベートなデータ合成が登場している。
論文 参考訳(メタデータ) (2024-11-04T06:32:48Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。