論文の概要: Lens: A Foundation Model for Network Traffic
- arxiv url: http://arxiv.org/abs/2402.03646v4
- Date: Fri, 27 Sep 2024 15:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-09 04:54:55.669734
- Title: Lens: A Foundation Model for Network Traffic
- Title(参考訳): Lens: ネットワークトラフィックの基礎モデル
- Authors: Qineng Wang, Chen Qian, Xiaochang Li, Ziyu Yao, Gang Zhou, Huajie Shao,
- Abstract要約: Lensは、T5アーキテクチャを活用して、大規模な未ラベルデータから事前訓練された表現を学習するネットワークトラフィックの基礎モデルである。
Masked Span Prediction(MSP)、Packet Order Prediction(POP)、Homologous Traffic Prediction(HTP)の3つの異なるタスクを組み合わせた新しい損失を設計する。
- 参考スコア(独自算出の注目度): 19.3652490585798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network traffic refers to the amount of data being sent and received over the internet or any system that connects computers. Analyzing and understanding network traffic is vital for improving network security and management. However, the analysis of network traffic is challenging due to the diverse nature of data packets, which often feature heterogeneous headers and encrypted payloads lacking semantics. To capture the latent semantics of traffic, a few studies have adopted pre-training techniques based on the Transformer encoder or decoder to learn the representations from massive traffic data. However, these methods typically excel in traffic understanding (classification) or traffic generation tasks. To address this issue, we develop Lens, a foundation model for network traffic that leverages the T5 architecture to learn the pre-trained representations from large-scale unlabeled data. Harnessing the strength of the encoder-decoder framework, which captures the global information while preserving the generative ability, our model can better learn the representations from raw data. To further enhance pre-training effectiveness, we design a novel loss that combines three distinct tasks: Masked Span Prediction (MSP), Packet Order Prediction (POP), and Homologous Traffic Prediction (HTP). Evaluation results across various benchmark datasets demonstrate that the proposed Lens outperforms the baselines in most downstream tasks related to both traffic understanding and generation. Notably, it also requires much less labeled data for fine-tuning compared to current methods.
- Abstract(参考訳): ネットワークトラフィック(ネットワークトラフィック)とは、インターネットやコンピュータを接続するシステムを通じて送信されるデータの量である。
ネットワークトラフィックの分析と理解は、ネットワークのセキュリティと管理を改善する上で不可欠である。
しかし、データパケットの性質が多様であることから、ネットワークトラフィックの分析は困難である。
トラフィックの潜在的セマンティクスを捉えるために、Transformerエンコーダやデコーダをベースとした事前学習技術を用いて、大量のトラフィックデータから表現を学習する研究がいくつかある。
しかし、これらの手法は一般的にトラフィック理解(分類)やトラフィック生成タスクに優れている。
この問題に対処するため,T5アーキテクチャを利用したネットワークトラフィック基盤モデルLensを開発し,大規模未ラベルデータから事前学習を行う。
生成能力を保ちながらグローバル情報をキャプチャするエンコーダ・デコーダ・フレームワークの強みを活かして,本モデルでは生データから表現をよりよく学習することができる。
事前学習の有効性をさらに高めるために,マスク付きスパン予測(MSP),パケット順序予測(POP),ホモログトラフィック予測(HTP)の3つの異なるタスクを組み合わせた新しい損失を設計する。
様々なベンチマークデータセットによる評価結果から,提案したLensは,トラフィック理解と生成の両方に関連するほとんどの下流タスクにおいて,ベースラインを上回っていることが示された。
特に、現在のメソッドと比較して、微調整のためにラベル付きデータもはるかに少なくなります。
関連論文リスト
- Deep Learning-driven Mobile Traffic Measurement Collection and Analysis [0.43512163406552007]
本稿では,空間的・時間的領域において,深層学習(DL)技術の強力な階層的特徴学習能力を利用する。
そこで我々は,都市規模の交通分析と予測のためのソリューションを開発した。
論文 参考訳(メタデータ) (2024-10-14T06:53:45Z) - BjTT: A Large-scale Multimodal Dataset for Traffic Prediction [49.93028461584377]
従来の交通予測手法は、交通トレンドを予測するために、過去の交通データに依存している。
本研究では,交通システムを記述するテキストと生成モデルを組み合わせることで,交通生成にどのように応用できるかを考察する。
本稿では,テキスト・トラフィック生成のための最初の拡散モデルChatTrafficを提案する。
論文 参考訳(メタデータ) (2024-03-08T04:19:56Z) - Many or Few Samples? Comparing Transfer, Contrastive and Meta-Learning
in Encrypted Traffic Classification [68.19713459228369]
我々は、トランスファーラーニング、メタラーニング、コントラストラーニングを、参照機械学習(ML)ツリーベースおよびモノリシックDLモデルと比較する。
i) 大規模なデータセットを用いて,より一般的な表現を得られること,(ii) コントラスト学習が最良の手法であることを示している。
MLツリーベースでは大きなタスクは処理できないが、学習した表現を再利用することで、小さなタスクにも適合するが、DLメソッドはツリーベースモデルのパフォーマンスにも到達している。
論文 参考訳(メタデータ) (2023-05-21T11:20:49Z) - NetGPT: Generative Pretrained Transformer for Network Traffic [4.205009931131087]
ネットワークトラフィックの事前訓練モデルでは,大規模生データを用いてネットワークトラフィックの本質的特性を学習することができる。
本稿では,トラフィックの理解と生成のための生成事前学習モデルNetGPTを提案する。
論文 参考訳(メタデータ) (2023-04-19T09:04:30Z) - TraffNet: Learning Causality of Traffic Generation for What-if Prediction [4.604622556490027]
インテリジェントなトラフィック管理と制御における意思決定には,リアルタイムなトラフィック予測が不可欠だ。
本稿では,トラフィック生成のメカニズムを事前に学習するTraffNetという単純なディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:12:17Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Auto-Transfer: Learning to Route Transferrable Representations [77.30427535329571]
本稿では,適切なターゲット表現にソース表現をルートする方法を自動学習する,新しい対向型マルチアームバンディット手法を提案する。
最先端の知識伝達手法と比較すると,5%以上の精度向上が期待できる。
論文 参考訳(メタデータ) (2022-02-02T13:09:27Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - TrafficStream: A Streaming Traffic Flow Forecasting Framework Based on
Graph Neural Networks and Continual Learning [10.205873494981633]
グラフニューラルネットワーク(GNN)と連続学習(CL)に基づくストリームトラフィックフロー予測フレームワークであるTrafficStreamを提案する。
新たなトラフィックパターンをマイニングするために,JS-divergence に基づくアルゴリズムを提案する。
モデルの有効性と有効性を検証するために,ストリーミングトラフィックデータセットを構築した。
論文 参考訳(メタデータ) (2021-06-11T09:42:37Z) - Learning dynamic and hierarchical traffic spatiotemporal features with
Transformer [4.506591024152763]
本稿では,空間時間グラフモデリングと長期交通予測のための新しいモデルであるTraffic Transformerを提案する。
Transformerは自然言語処理(NLP)で最も人気のあるフレームワークです。
注目重量行列を解析すれば 道路網の 影響力のある部分を見つけられる 交通網をよりよく学べる
論文 参考訳(メタデータ) (2021-04-12T02:29:58Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。