論文の概要: Assessing User Privacy Leakage in Synthetic Packet Traces: An Attack-Grounded Approach
- arxiv url: http://arxiv.org/abs/2508.11742v1
- Date: Fri, 15 Aug 2025 17:54:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.357058
- Title: Assessing User Privacy Leakage in Synthetic Packet Traces: An Attack-Grounded Approach
- Title(参考訳): 合成パケットトレースにおけるユーザプライバシ漏洩の評価 - 攻撃回避アプローチ
- Authors: Minhao Jin, Hongyu He, Maria Apostolaki,
- Abstract要約: 現在の合成トラフィックジェネレータ(SynNetGens)は、プライバシを約束するが、包括的な保証や実証的な検証がない。
我々は,SynNetGensのプライバシを,トラフィックから直接評価するための最初の攻撃基盤ベンチマークを紹介する。
TraceBleedは、対照的な学習と時間的チャンクを使って、フロー全体にわたる行動指紋を利用する最初の攻撃である。
- 参考スコア(独自算出の注目度): 1.8775413720750922
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current synthetic traffic generators (SynNetGens) promise privacy but lack comprehensive guarantees or empirical validation, even as their fidelity steadily improves. We introduce the first attack-grounded benchmark for assessing the privacy of SynNetGens directly from the traffic they produce. We frame privacy as membership inference at the traffic-source level--a realistic and actionable threat for data holders. To this end, we present TraceBleed, the first attack that exploits behavioral fingerprints across flows using contrastive learning and temporal chunking, outperforming prior membership inference baselines by 172%. Our large-scale study across GAN-, diffusion-, and GPT-based SynNetGens uncovers critical insights: (i) SynNetGens leak user-level information; (ii) differential privacy either fails to stop these attacks or severely degrades fidelity; and (iii) sharing more synthetic data amplifies leakage by 59% on average. Finally, we introduce TracePatch, the first SynNetGen-agnostic defense that combines adversarial ML with SMT constraints to mitigate leakage while preserving fidelity.
- Abstract(参考訳): 現在の合成トラフィックジェネレータ(SynNetGens)は、プライバシーを約束するが、その忠実さが着実に改善されているにもかかわらず、包括的な保証や実証的な検証がない。
我々は,SynNetGensのプライバシを,トラフィックから直接評価するための最初の攻撃基盤ベンチマークを紹介する。
私たちはプライバシーを、データ保有者にとって現実的で行動可能な脅威であるトラフィックソースレベルでの会員推測と捉えています。
この目的のためにTraceBleedを提案する。TraceBleedは、対照的な学習と時間的チャンクを用いてフロー全体にわたる行動指紋を利用する最初の攻撃であり、事前の会員推定基準を172%上回っている。
GAN、拡散、GPTベースのSynNetGensにわたる大規模な研究で、重要な洞察が明らかになりました。
(i)SynNetGensは、ユーザレベル情報を漏洩する。
(二 差分プライバシーがこれらの攻撃を阻止しなかったり、不信感をひどく低下させたりすること。)
三 より多くの合成データを共有することは、平均して59%のリークを増幅する。
最後に,敵MLとSMT制約を組み合わせた最初のSynNetGen-Agnostic DefenseであるTracePatchを紹介する。
関連論文リスト
- Integrating Explainable AI for Effective Malware Detection in Encrypted Network Traffic [0.0]
暗号化されたネットワーク通信は、エンドポイント間の機密性、完全性、プライバシを保証する。
本研究では、悪意のあるネットワークトラフィックを検出するための説明可能な人工知能(XAI)技術の統合について検討する。
我々は、暗号化通信の様々な側面から抽出された多視点特徴を用いて、悪意ある活動を特定するためにアンサンブル学習モデルを用いる。
論文 参考訳(メタデータ) (2025-01-09T17:21:00Z) - Driving Privacy Forward: Mitigating Information Leakage within Smart Vehicles through Synthetic Data Generation [0.0]
そこで本研究では,車内センサ14の分類法を提案し,攻撃の可能性を特定し,その脆弱性を分類する。
次に、PVS(Passive Vehicular Sensor)データセットを使用して、最も脆弱な信号に注目し、合成データを生成する。
本研究の結果から,本研究の意図を検証した結果,90.1%の統計的類似度と78%の分類精度が得られた。
論文 参考訳(メタデータ) (2024-10-11T02:28:27Z) - NetDPSyn: Synthesizing Network Traces under Differential Privacy [13.103564629041848]
NetDPSynは、プライバシ保証の下で高忠実度ネットワークトレースを合成する最初のシステムである。
3つのフローと2つのパケットデータセットで実施された実験は、NetDPSynが異常検出などの下流タスクにおいて、はるかに優れたデータユーティリティを実現することを示している。
論文 参考訳(メタデータ) (2024-09-08T23:54:00Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - The Inadequacy of Similarity-based Privacy Metrics: Privacy Attacks against "Truly Anonymous" Synthetic Datasets [12.730435519914415]
実世界の合成データデプロイメントで使用されるプライバシメトリクスを調べ、その信頼性をいくつかの点で実証する。
ReconSynは、メトリクスによってプライベートと見なされるが、個々のレコードに固有の情報をリークする複数の合成データセットを生成するリコンストラクション攻撃である。
ReconSynは列車データから78-100%のアウトレーヤを復元し、ブラックボックスアクセスのみを1つの適合した生成モデルとプライバシメトリクスに含める。
論文 参考訳(メタデータ) (2023-12-08T15:42:28Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z) - privGAN: Protecting GANs from membership inference attacks at low cost [5.735035463793008]
Generative Adversarial Networks (GAN)は、合成画像のリリースを、オリジナルのデータセットを公開せずにデータを共有するための実行可能なアプローチにした。
近年の研究では、GANモデルとその合成データを用いて、相手によるトレーニングセットメンバーシップを推測できることが示されている。
ここでは、ジェネレータが識別器を騙すだけでなく、メンバーシップ推論攻撃を防御するために訓練される新しいGANアーキテクチャ(privGAN)を開発する。
論文 参考訳(メタデータ) (2019-12-31T20:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。