論文の概要: Lens: A Foundation Model for Network Traffic
- arxiv url: http://arxiv.org/abs/2402.03646v1
- Date: Tue, 6 Feb 2024 02:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 16:56:00.288943
- Title: Lens: A Foundation Model for Network Traffic
- Title(参考訳): Lens: ネットワークトラフィックの基礎モデル
- Authors: Qineng Wang, Chen Qian, Xiaochang Li, Ziyu Yao, Huajie Shao
- Abstract要約: Lensは、T5アーキテクチャを活用して、大規模な未ラベルデータから事前訓練された表現を学習する基礎的なネットワークトラフィックモデルである。
我々は,MSP(Masked Span Prediction),POP(Packet Order Prediction),HTP(Homologous Traffic Prediction)という,3つの異なるタスクを統合した新たな損失を設計する。
- 参考スコア(独自算出の注目度): 19.71042183770703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network traffic refers to the amount of information being sent and received
over the internet or any system that connects computers. Analyzing and
understanding network traffic is vital for improving network security and
management. However, the analysis of network traffic poses great challenges due
to the unique characteristics of data packets, such as heterogeneous headers
and encrypted payload lacking semantics. To capture the latent semantics of
traffic, a few studies have adopted pre-training techniques based on the
Transformer encoder or decoder to learn the representations from large-scale
traffic data. However, these methods typically excel only in traffic
understanding (classification) or traffic generation tasks. To address this
issue, we develop Lens, a foundational network traffic model that leverages the
T5 architecture to learn the pre-trained representations from large-scale
unlabeled data. Harnessing the strength of the encoder-decoder framework, which
captures the global information while preserving the generative ability, our
model can better learn the representations from large-scale network traffic. To
further enhance pre-training performance, we design a novel loss that
integrates three distinct tasks, namely Masked Span Prediction (MSP), Packet
Order Prediction (POP), and Homologous Traffic Prediction (HTP). Evaluation
results on multiple benchmark datasets demonstrate that the proposed Lens
outperforms the baselines in most downstream tasks related to both traffic
understanding and traffic generation. Notably, it also requires considerably
less labeled data for fine-tuning compared to current methods.
- Abstract(参考訳): ネットワークトラフィック(ネットワークトラフィック)とは、インターネットやコンピュータを接続するシステムを通じて送信される情報の量である。
ネットワークのセキュリティと管理を改善するには,ネットワークトラフィックの分析と理解が不可欠である。
しかし、ネットワークトラフィックの分析は、異種ヘッダやセマンティクスに欠ける暗号化ペイロードなど、データパケットのユニークな特徴のため、大きな課題を生んでいる。
トラフィックの潜在的セマンティクスを捉えるために、Transformerエンコーダやデコーダをベースとした事前学習技術を用いて、大規模トラフィックデータから表現を学習する研究がいくつかある。
しかし、これらの手法は通常、トラフィック理解(分類)やトラフィック生成タスクでのみ優れている。
この問題に対処するために,T5アーキテクチャを利用したネットワークトラフィックモデルLensを開発し,大規模未ラベルデータから事前学習を行う。
生成能力を保ちながらグローバル情報をキャプチャするエンコーダ・デコーダ・フレームワークの強みを活かして,大規模ネットワークトラフィックから表現をよりよく学習することができる。
事前学習性能をさらに向上するため,MSP(Masked Span Prediction),POP(Packet Order Prediction),HTP(Homologous Traffic Prediction)の3つの異なるタスクを統合した新しい損失を設計した。
複数のベンチマークデータセットにおける評価結果は、提案するレンズが、トラフィック理解とトラフィック生成の両方に関連する下流タスクのベースラインを上回っていることを示している。
とくに、現在の方法に比べて微調整のためのラベル付きデータもかなり少ない。
関連論文リスト
- Deep Learning-driven Mobile Traffic Measurement Collection and Analysis [0.43512163406552007]
本稿では,空間的・時間的領域において,深層学習(DL)技術の強力な階層的特徴学習能力を利用する。
そこで我々は,都市規模の交通分析と予測のためのソリューションを開発した。
論文 参考訳(メタデータ) (2024-10-14T06:53:45Z) - BjTT: A Large-scale Multimodal Dataset for Traffic Prediction [49.93028461584377]
従来の交通予測手法は、交通トレンドを予測するために、過去の交通データに依存している。
本研究では,交通システムを記述するテキストと生成モデルを組み合わせることで,交通生成にどのように応用できるかを考察する。
本稿では,テキスト・トラフィック生成のための最初の拡散モデルChatTrafficを提案する。
論文 参考訳(メタデータ) (2024-03-08T04:19:56Z) - Many or Few Samples? Comparing Transfer, Contrastive and Meta-Learning
in Encrypted Traffic Classification [68.19713459228369]
我々は、トランスファーラーニング、メタラーニング、コントラストラーニングを、参照機械学習(ML)ツリーベースおよびモノリシックDLモデルと比較する。
i) 大規模なデータセットを用いて,より一般的な表現を得られること,(ii) コントラスト学習が最良の手法であることを示している。
MLツリーベースでは大きなタスクは処理できないが、学習した表現を再利用することで、小さなタスクにも適合するが、DLメソッドはツリーベースモデルのパフォーマンスにも到達している。
論文 参考訳(メタデータ) (2023-05-21T11:20:49Z) - NetGPT: Generative Pretrained Transformer for Network Traffic [4.205009931131087]
ネットワークトラフィックの事前訓練モデルでは,大規模生データを用いてネットワークトラフィックの本質的特性を学習することができる。
本稿では,トラフィックの理解と生成のための生成事前学習モデルNetGPTを提案する。
論文 参考訳(メタデータ) (2023-04-19T09:04:30Z) - TraffNet: Learning Causality of Traffic Generation for What-if Prediction [4.604622556490027]
インテリジェントなトラフィック管理と制御における意思決定には,リアルタイムなトラフィック予測が不可欠だ。
本稿では,トラフィック生成のメカニズムを事前に学習するTraffNetという単純なディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:12:17Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Auto-Transfer: Learning to Route Transferrable Representations [77.30427535329571]
本稿では,適切なターゲット表現にソース表現をルートする方法を自動学習する,新しい対向型マルチアームバンディット手法を提案する。
最先端の知識伝達手法と比較すると,5%以上の精度向上が期待できる。
論文 参考訳(メタデータ) (2022-02-02T13:09:27Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - TrafficStream: A Streaming Traffic Flow Forecasting Framework Based on
Graph Neural Networks and Continual Learning [10.205873494981633]
グラフニューラルネットワーク(GNN)と連続学習(CL)に基づくストリームトラフィックフロー予測フレームワークであるTrafficStreamを提案する。
新たなトラフィックパターンをマイニングするために,JS-divergence に基づくアルゴリズムを提案する。
モデルの有効性と有効性を検証するために,ストリーミングトラフィックデータセットを構築した。
論文 参考訳(メタデータ) (2021-06-11T09:42:37Z) - Learning dynamic and hierarchical traffic spatiotemporal features with
Transformer [4.506591024152763]
本稿では,空間時間グラフモデリングと長期交通予測のための新しいモデルであるTraffic Transformerを提案する。
Transformerは自然言語処理(NLP)で最も人気のあるフレームワークです。
注目重量行列を解析すれば 道路網の 影響力のある部分を見つけられる 交通網をよりよく学べる
論文 参考訳(メタデータ) (2021-04-12T02:29:58Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。