論文の概要: Lens: A Foundation Model for Network Traffic
- arxiv url: http://arxiv.org/abs/2402.03646v4
- Date: Fri, 27 Sep 2024 15:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-09 04:54:55.669734
- Title: Lens: A Foundation Model for Network Traffic
- Title(参考訳): Lens: ネットワークトラフィックの基礎モデル
- Authors: Qineng Wang, Chen Qian, Xiaochang Li, Ziyu Yao, Gang Zhou, Huajie Shao,
- Abstract要約: Lensは、T5アーキテクチャを活用して、大規模な未ラベルデータから事前訓練された表現を学習するネットワークトラフィックの基礎モデルである。
Masked Span Prediction(MSP)、Packet Order Prediction(POP)、Homologous Traffic Prediction(HTP)の3つの異なるタスクを組み合わせた新しい損失を設計する。
- 参考スコア(独自算出の注目度): 19.3652490585798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network traffic refers to the amount of data being sent and received over the internet or any system that connects computers. Analyzing and understanding network traffic is vital for improving network security and management. However, the analysis of network traffic is challenging due to the diverse nature of data packets, which often feature heterogeneous headers and encrypted payloads lacking semantics. To capture the latent semantics of traffic, a few studies have adopted pre-training techniques based on the Transformer encoder or decoder to learn the representations from massive traffic data. However, these methods typically excel in traffic understanding (classification) or traffic generation tasks. To address this issue, we develop Lens, a foundation model for network traffic that leverages the T5 architecture to learn the pre-trained representations from large-scale unlabeled data. Harnessing the strength of the encoder-decoder framework, which captures the global information while preserving the generative ability, our model can better learn the representations from raw data. To further enhance pre-training effectiveness, we design a novel loss that combines three distinct tasks: Masked Span Prediction (MSP), Packet Order Prediction (POP), and Homologous Traffic Prediction (HTP). Evaluation results across various benchmark datasets demonstrate that the proposed Lens outperforms the baselines in most downstream tasks related to both traffic understanding and generation. Notably, it also requires much less labeled data for fine-tuning compared to current methods.
- Abstract(参考訳): ネットワークトラフィック(ネットワークトラフィック)とは、インターネットやコンピュータを接続するシステムを通じて送信されるデータの量である。
ネットワークトラフィックの分析と理解は、ネットワークのセキュリティと管理を改善する上で不可欠である。
しかし、データパケットの性質が多様であることから、ネットワークトラフィックの分析は困難である。
トラフィックの潜在的セマンティクスを捉えるために、Transformerエンコーダやデコーダをベースとした事前学習技術を用いて、大量のトラフィックデータから表現を学習する研究がいくつかある。
しかし、これらの手法は一般的にトラフィック理解(分類)やトラフィック生成タスクに優れている。
この問題に対処するため,T5アーキテクチャを利用したネットワークトラフィック基盤モデルLensを開発し,大規模未ラベルデータから事前学習を行う。
生成能力を保ちながらグローバル情報をキャプチャするエンコーダ・デコーダ・フレームワークの強みを活かして,本モデルでは生データから表現をよりよく学習することができる。
事前学習の有効性をさらに高めるために,マスク付きスパン予測(MSP),パケット順序予測(POP),ホモログトラフィック予測(HTP)の3つの異なるタスクを組み合わせた新しい損失を設計する。
様々なベンチマークデータセットによる評価結果から,提案したLensは,トラフィック理解と生成の両方に関連するほとんどの下流タスクにおいて,ベースラインを上回っていることが示された。
特に、現在のメソッドと比較して、微調整のためにラベル付きデータもはるかに少なくなります。
関連論文リスト
- NetFlowGen: Leveraging Generative Pre-training for Network Traffic Dynamics [72.95483148058378]
我々は,NetFlowレコードからのトラフィックデータのみを用いて,トラフィックダイナミクスをキャプチャする汎用機械学習モデルを事前学習することを提案する。
ネットワーク特徴表現の統一,未ラベルの大規模トラフィックデータ量からの学習,DDoS攻撃検出における下流タスクのテストといった課題に対処する。
論文 参考訳(メタデータ) (2024-12-30T00:47:49Z) - MIETT: Multi-Instance Encrypted Traffic Transformer for Encrypted Traffic Classification [59.96233305733875]
トラフィックの分類は、セキュリティの脅威を検出し、ネットワーク管理を最適化するために不可欠である。
トークンレベルとパケットレベルの両方の関係をキャプチャするMulti-Instance Encrypted Traffic Transformer (MIETT)を提案する。
MIETTは5つのデータセットにまたがって結果を達成し、暗号化されたトラフィックの分類と複雑なネットワーク動作の理解の有効性を示す。
論文 参考訳(メタデータ) (2024-12-19T12:52:53Z) - Deep Learning-driven Mobile Traffic Measurement Collection and Analysis [0.43512163406552007]
本稿では,空間的・時間的領域において,深層学習(DL)技術の強力な階層的特徴学習能力を利用する。
そこで我々は,都市規模の交通分析と予測のためのソリューションを開発した。
論文 参考訳(メタデータ) (2024-10-14T06:53:45Z) - BjTT: A Large-scale Multimodal Dataset for Traffic Prediction [49.93028461584377]
従来の交通予測手法は、交通トレンドを予測するために、過去の交通データに依存している。
本研究では,交通システムを記述するテキストと生成モデルを組み合わせることで,交通生成にどのように応用できるかを考察する。
本稿では,テキスト・トラフィック生成のための最初の拡散モデルChatTrafficを提案する。
論文 参考訳(メタデータ) (2024-03-08T04:19:56Z) - NetGPT: Generative Pretrained Transformer for Network Traffic [4.205009931131087]
ネットワークトラフィックの事前訓練モデルでは,大規模生データを用いてネットワークトラフィックの本質的特性を学習することができる。
本稿では,トラフィックの理解と生成のための生成事前学習モデルNetGPTを提案する。
論文 参考訳(メタデータ) (2023-04-19T09:04:30Z) - TraffNet: Learning Causality of Traffic Generation for What-if Prediction [4.604622556490027]
インテリジェントなトラフィック管理と制御における意思決定には,リアルタイムなトラフィック予測が不可欠だ。
本稿では,トラフィック生成のメカニズムを事前に学習するTraffNetという単純なディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:12:17Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。