論文の概要: Lens: A Foundation Model for Network Traffic
- arxiv url: http://arxiv.org/abs/2402.03646v1
- Date: Tue, 6 Feb 2024 02:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 16:56:00.288943
- Title: Lens: A Foundation Model for Network Traffic
- Title(参考訳): Lens: ネットワークトラフィックの基礎モデル
- Authors: Qineng Wang, Chen Qian, Xiaochang Li, Ziyu Yao, Huajie Shao
- Abstract要約: Lensは、T5アーキテクチャを活用して、大規模な未ラベルデータから事前訓練された表現を学習する基礎的なネットワークトラフィックモデルである。
我々は,MSP(Masked Span Prediction),POP(Packet Order Prediction),HTP(Homologous Traffic Prediction)という,3つの異なるタスクを統合した新たな損失を設計する。
- 参考スコア(独自算出の注目度): 19.71042183770703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network traffic refers to the amount of information being sent and received
over the internet or any system that connects computers. Analyzing and
understanding network traffic is vital for improving network security and
management. However, the analysis of network traffic poses great challenges due
to the unique characteristics of data packets, such as heterogeneous headers
and encrypted payload lacking semantics. To capture the latent semantics of
traffic, a few studies have adopted pre-training techniques based on the
Transformer encoder or decoder to learn the representations from large-scale
traffic data. However, these methods typically excel only in traffic
understanding (classification) or traffic generation tasks. To address this
issue, we develop Lens, a foundational network traffic model that leverages the
T5 architecture to learn the pre-trained representations from large-scale
unlabeled data. Harnessing the strength of the encoder-decoder framework, which
captures the global information while preserving the generative ability, our
model can better learn the representations from large-scale network traffic. To
further enhance pre-training performance, we design a novel loss that
integrates three distinct tasks, namely Masked Span Prediction (MSP), Packet
Order Prediction (POP), and Homologous Traffic Prediction (HTP). Evaluation
results on multiple benchmark datasets demonstrate that the proposed Lens
outperforms the baselines in most downstream tasks related to both traffic
understanding and traffic generation. Notably, it also requires considerably
less labeled data for fine-tuning compared to current methods.
- Abstract(参考訳): ネットワークトラフィック(ネットワークトラフィック)とは、インターネットやコンピュータを接続するシステムを通じて送信される情報の量である。
ネットワークのセキュリティと管理を改善するには,ネットワークトラフィックの分析と理解が不可欠である。
しかし、ネットワークトラフィックの分析は、異種ヘッダやセマンティクスに欠ける暗号化ペイロードなど、データパケットのユニークな特徴のため、大きな課題を生んでいる。
トラフィックの潜在的セマンティクスを捉えるために、Transformerエンコーダやデコーダをベースとした事前学習技術を用いて、大規模トラフィックデータから表現を学習する研究がいくつかある。
しかし、これらの手法は通常、トラフィック理解(分類)やトラフィック生成タスクでのみ優れている。
この問題に対処するために,T5アーキテクチャを利用したネットワークトラフィックモデルLensを開発し,大規模未ラベルデータから事前学習を行う。
生成能力を保ちながらグローバル情報をキャプチャするエンコーダ・デコーダ・フレームワークの強みを活かして,大規模ネットワークトラフィックから表現をよりよく学習することができる。
事前学習性能をさらに向上するため,MSP(Masked Span Prediction),POP(Packet Order Prediction),HTP(Homologous Traffic Prediction)の3つの異なるタスクを統合した新しい損失を設計した。
複数のベンチマークデータセットにおける評価結果は、提案するレンズが、トラフィック理解とトラフィック生成の両方に関連する下流タスクのベースラインを上回っていることを示している。
とくに、現在の方法に比べて微調整のためのラベル付きデータもかなり少ない。
関連論文リスト
- BjTT: A Large-scale Multimodal Dataset for Traffic Prediction [49.93028461584377]
従来の交通予測手法は、交通トレンドを予測するために、過去の交通データに依存している。
本研究では,交通システムを記述するテキストと生成モデルを組み合わせることで,交通生成にどのように応用できるかを考察する。
本稿では,テキスト・トラフィック生成のための最初の拡散モデルChatTrafficを提案する。
論文 参考訳(メタデータ) (2024-03-08T04:19:56Z) - NetDiffus: Network Traffic Generation by Diffusion Models through
Time-Series Imaging [3.208802773440937]
我々は,1次元時系列ネットワークトラフィックを2次元画像に変換し,元のデータを表す画像を合成するエンド・ツー・エンド・エンド・フレームワークであるNetDiffusを開発した。
我々は、生成したデータの忠実度を66.4%増加し、下流機械学習タスクを18.1%増加させることにより、GAN(Generative Adversarial Networks)に基づく最先端のトラフィック生成手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-23T18:13:12Z) - NetGPT: Generative Pretrained Transformer for Network Traffic [4.205009931131087]
ネットワークトラフィックの事前訓練モデルでは,大規模生データを用いてネットワークトラフィックの本質的特性を学習することができる。
本稿では,トラフィックの理解と生成のための生成事前学習モデルNetGPTを提案する。
論文 参考訳(メタデータ) (2023-04-19T09:04:30Z) - TraffNet: Learning Causality of Traffic Generation for What-if
Prediction [4.835524672885856]
インテリジェントなトラフィック管理と制御における意思決定には,リアルタイムなトラフィック予測が不可欠だ。
本稿では、車両軌跡データから交通発生のメカニズムを学習するTraffNetという単純なディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:12:17Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - ET-BERT: A Contextualized Datagram Representation with Pre-training
Transformers for Encrypted Traffic Classification [9.180725486824118]
トランスフォーマー(ET-BERT)からの暗号化トラフィック双方向表現と呼ばれる新しいトラフィック表現モデルを提案する。
事前訓練されたモデルは、少数のタスク固有のラベル付きデータに基づいて微調整し、5つの暗号化されたトラフィック分類タスクで最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2022-02-13T14:54:48Z) - Auto-Transfer: Learning to Route Transferrable Representations [77.30427535329571]
本稿では,適切なターゲット表現にソース表現をルートする方法を自動学習する,新しい対向型マルチアームバンディット手法を提案する。
最先端の知識伝達手法と比較すると,5%以上の精度向上が期待できる。
論文 参考訳(メタデータ) (2022-02-02T13:09:27Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - Learning dynamic and hierarchical traffic spatiotemporal features with
Transformer [4.506591024152763]
本稿では,空間時間グラフモデリングと長期交通予測のための新しいモデルであるTraffic Transformerを提案する。
Transformerは自然言語処理(NLP)で最も人気のあるフレームワークです。
注目重量行列を解析すれば 道路網の 影響力のある部分を見つけられる 交通網をよりよく学べる
論文 参考訳(メタデータ) (2021-04-12T02:29:58Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。