論文の概要: Language of Network: A Generative Pre-trained Model for Encrypted Traffic Comprehension
- arxiv url: http://arxiv.org/abs/2505.19482v1
- Date: Mon, 26 May 2025 04:04:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.1548
- Title: Language of Network: A Generative Pre-trained Model for Encrypted Traffic Comprehension
- Title(参考訳): Language of Network: 暗号化トラフィック理解のための生成事前学習モデル
- Authors: Di Zhao, Bo Jiang, Song Liu, Susu Cui, Meng Shen, Dongqi Han, Xingmao Guan, Zhigang Lu,
- Abstract要約: ディープ・ラーニングは、現在、特徴分析を通じて暗号化されたトラフィック分類の主要なアプローチである。
本稿では,暗号化トラフィック理解のための事前学習に基づく生成モデルGBCを提案する。
トラフィック分類と生成タスクの両方において優れた結果が得られ、その結果、分類タスクの最先端手法と比較して、F1スコアが5%向上する。
- 参考スコア(独自算出の注目度): 16.795038178588324
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The increasing demand for privacy protection and security considerations leads to a significant rise in the proportion of encrypted network traffic. Since traffic content becomes unrecognizable after encryption, accurate analysis is challenging, making it difficult to classify applications and detect attacks. Deep learning is currently the predominant approach for encrypted traffic classification through feature analysis. However, these methods face limitations due to their high dependence on labeled data and difficulties in detecting attack variants. First, their performance is highly sensitive to data quality, where the highcost manual labeling process and dataset imbalance significantly degrade results. Second, the rapid evolution of attack patterns makes it challenging for models to identify new types of attacks. To tackle these challenges, we present GBC, a generative model based on pre-training for encrypted traffic comprehension. Since traditional tokenization methods are primarily designed for natural language, we propose a protocol-aware tokenization approach for encrypted traffic that improves model comprehension of fields specific to network traffic. In addition, GBC employs pretraining to learn general representations from extensive unlabeled traffic data. Through prompt learning, it effectively adapts to various downstream tasks, enabling both high-quality traffic generation and effective detection. Evaluations across multiple datasets demonstrate that GBC achieves superior results in both traffic classification and generation tasks, resulting in a 5% improvement in F1 score compared to state-of-the-art methods for classification tasks.
- Abstract(参考訳): プライバシー保護とセキュリティ配慮の需要の増加は、暗号化されたネットワークトラフィックの割合を大幅に増加させます。
暗号化後にトラフィックコンテンツが認識不能になるため、正確な分析は困難であり、アプリケーションの分類や攻撃の検出が困難になる。
ディープ・ラーニングは、現在、特徴分析を通じて暗号化されたトラフィック分類の主要なアプローチである。
しかし,これらの手法はラベル付きデータへの依存度が高く,攻撃変異の検出が困難であるため,限界に直面している。
まず、彼らのパフォーマンスはデータ品質に非常に敏感で、高価な手動ラベリングプロセスとデータセットの不均衡は結果を著しく低下させる。
第二に、攻撃パターンの急速な進化は、モデルが新しいタイプの攻撃を識別することを困難にしている。
これらの課題に対処するために,暗号化トラフィック理解のための事前学習に基づく生成モデルGBCを提案する。
従来のトークン化方式は、主に自然言語用に設計されているため、ネットワークトラフィックに特有のフィールドのモデル理解を改善するための、暗号化トラフィックのためのプロトコル対応トークン化手法を提案する。
さらに、GBCは事前トレーニングを使用して、広範なラベルのないトラフィックデータから一般的な表現を学習する。
迅速な学習を通じて、様々な下流タスクに効果的に対応し、高品質なトラフィック生成と効果的な検出を可能にする。
複数のデータセットで評価した結果、GBCはトラフィック分類と生成タスクの両方において優れた結果が得られることが示され、その結果、分類タスクの最先端手法と比較してF1スコアは5%改善された。
関連論文リスト
- NetFlowGen: Leveraging Generative Pre-training for Network Traffic Dynamics [72.95483148058378]
我々は,NetFlowレコードからのトラフィックデータのみを用いて,トラフィックダイナミクスをキャプチャする汎用機械学習モデルを事前学習することを提案する。
ネットワーク特徴表現の統一,未ラベルの大規模トラフィックデータ量からの学習,DDoS攻撃検出における下流タスクのテストといった課題に対処する。
論文 参考訳(メタデータ) (2024-12-30T00:47:49Z) - MIETT: Multi-Instance Encrypted Traffic Transformer for Encrypted Traffic Classification [59.96233305733875]
トラフィックの分類は、セキュリティの脅威を検出し、ネットワーク管理を最適化するために不可欠である。
トークンレベルとパケットレベルの両方の関係をキャプチャするMulti-Instance Encrypted Traffic Transformer (MIETT)を提案する。
MIETTは5つのデータセットにまたがって結果を達成し、暗号化されたトラフィックの分類と複雑なネットワーク動作の理解の有効性を示す。
論文 参考訳(メタデータ) (2024-12-19T12:52:53Z) - TrafficGPT: Breaking the Token Barrier for Efficient Long Traffic Analysis and Generation [5.802618825302984]
我々は、長いフローの分類と生成タスクに関連する複雑な課題に対処できるディープラーニングモデルであるTrafficGPTを紹介する。
TrafficGPTは、分類タスクにおいて優れたパフォーマンスを示し、最先端レベルに達する。
これらの進歩は、トラフィックフローの分類と生成タスクの両方における将来の応用を約束する。
論文 参考訳(メタデータ) (2024-03-09T07:19:37Z) - Lens: A Foundation Model for Network Traffic [19.3652490585798]
Lensは、T5アーキテクチャを活用して、大規模な未ラベルデータから事前訓練された表現を学習するネットワークトラフィックの基礎モデルである。
Masked Span Prediction(MSP)、Packet Order Prediction(POP)、Homologous Traffic Prediction(HTP)の3つの異なるタスクを組み合わせた新しい損失を設計する。
論文 参考訳(メタデータ) (2024-02-06T02:45:13Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。