論文の概要: Quantifying the Privacy Implications of High-Fidelity Synthetic Network Traffic
- arxiv url: http://arxiv.org/abs/2511.20497v1
- Date: Tue, 25 Nov 2025 17:04:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.563036
- Title: Quantifying the Privacy Implications of High-Fidelity Synthetic Network Traffic
- Title(参考訳): 高忠実性合成ネットワークトラフィックのプライバシ含意の定量化
- Authors: Van Tran, Shinan Liu, Tian Li, Nick Feamster,
- Abstract要約: 合成ネットワークトラフィックのための総合的なプライバシー指標を導入する。
本研究は,様々な代表生成モデルの脆弱性を評価し,攻撃成功に影響を与える要因について検討する。
我々の結果は、モデルとデータセット間でのプライバシーリスクのかなりのばらつきを明らかにします。
- 参考スコア(独自算出の注目度): 12.114570800461593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To address the scarcity and privacy concerns of network traffic data, various generative models have been developed to produce synthetic traffic. However, synthetic traffic is not inherently privacy-preserving, and the extent to which it leaks sensitive information, and how to measure such leakage, remain largely unexplored. This challenge is further compounded by the diversity of model architectures, which shape how traffic is represented and synthesized. We introduce a comprehensive set of privacy metrics for synthetic network traffic, combining standard approaches like membership inference attacks (MIA) and data extraction attacks with network-specific identifiers and attributes. Using these metrics, we systematically evaluate the vulnerability of different representative generative models and examine the factors that influence attack success. Our results reveal substantial variability in privacy risks across models and datasets. MIA success ranges from 0% to 88%, and up to 100% of network identifiers can be recovered from generated traffic, highlighting serious privacy vulnerabilities. We further identify key factors that significantly affect attack outcomes, including training data diversity and how well the generative model fits the training data. These findings provide actionable guidance for designing and deploying generative models that minimize privacy leakage, establishing a foundation for safer synthetic network traffic generation.
- Abstract(参考訳): ネットワークトラフィックデータの不足とプライバシの問題に対処するため、合成トラフィックを生成するために様々な生成モデルが開発されている。
しかし、合成トラフィックは本質的にプライバシ保護ではなく、機密情報を漏洩する程度や、そのような漏洩を測定する方法はまだ明らかにされていない。
この課題は、トラフィックの表現と合成の方法を形成するモデルアーキテクチャの多様性によってさらに複雑化されている。
本稿では,MIA攻撃やデータ抽出攻撃といった標準的な手法をネットワーク固有の識別子や属性と組み合わせ,総合的なネットワークトラフィックのプライバシ指標を提案する。
これらの指標を用いて、異なる代表生成モデルの脆弱性を体系的に評価し、攻撃の成功に影響を与える要因について検討する。
我々の結果は、モデルとデータセット間でのプライバシーリスクのかなりのばらつきを明らかにします。
MIAの成功は0%から88%の範囲で、生成されたトラフィックから最大100%のネットワーク識別子を復元できる。
さらに、トレーニングデータの多様性や、生成モデルがトレーニングデータにどの程度適合するかなど、攻撃結果に大きな影響を及ぼす重要な要因を同定する。
これらの知見は、プライバシリークを最小限に抑える生成モデルの設計とデプロイのための実用的なガイダンスを提供し、より安全な合成ネットワークトラフィック生成の基礎を確立する。
関連論文リスト
- Privacy Auditing Synthetic Data Release through Local Likelihood Attacks [7.780592134085148]
遺伝子様比攻撃(Gen-LRA)
Gen-LRAは、サロゲートモデルによる合成データに対する局所確率比の推定において、テスト観測が与える影響を評価して攻撃を定式化する。
その結果、Gen-LRAは、合成データのリリースのためのプライバシ監査ツールとしての有効性を裏付けている。
論文 参考訳(メタデータ) (2025-08-28T18:27:40Z) - RL-Finetuned LLMs for Privacy-Preserving Synthetic Rewriting [17.294176570269]
本稿では,複合報酬関数を用いた大規模言語モデル(LLM)を微調整する強化学習フレームワークを提案する。
プライバシ報酬は、セマンティックキューと、潜伏表現上の最小スパンニングツリー(MST)から派生した構造パターンを組み合わせる。
実験の結果,提案手法はセマンティック品質を劣化させることなく,著者の難読化とプライバシーの指標を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2025-08-25T04:38:19Z) - Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - Integrating Explainable AI for Effective Malware Detection in Encrypted Network Traffic [0.0]
暗号化されたネットワーク通信は、エンドポイント間の機密性、完全性、プライバシを保証する。
本研究では、悪意のあるネットワークトラフィックを検出するための説明可能な人工知能(XAI)技術の統合について検討する。
我々は、暗号化通信の様々な側面から抽出された多視点特徴を用いて、悪意ある活動を特定するためにアンサンブル学習モデルを用いる。
論文 参考訳(メタデータ) (2025-01-09T17:21:00Z) - KiNETGAN: Enabling Distributed Network Intrusion Detection through Knowledge-Infused Synthetic Data Generation [0.0]
合成ネットワーク活動データ(KiNETGAN)を生成するための知識注入型ジェネレーティブ・アドバイサル・ネットワークを提案する。
弊社のアプローチは、プライバシー問題に対処しながら、分散侵入検知のレジリエンスを高める。
論文 参考訳(メタデータ) (2024-05-26T08:02:02Z) - PhishGuard: A Convolutional Neural Network Based Model for Detecting Phishing URLs with Explainability Analysis [1.102674168371806]
フィッシングURLの識別は、この問題に対処する最善の方法だ。
フィッシングURLの検出を自動化するために,機械学習と深層学習の手法が提案されている。
本稿では,1次元畳み込みニューラルネットワーク(CNN)を提案する。
論文 参考訳(メタデータ) (2024-04-27T17:13:49Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。