論文の概要: Lens: A Foundation Model for Network Traffic in Cybersecurity
- arxiv url: http://arxiv.org/abs/2402.03646v2
- Date: Fri, 9 Feb 2024 17:15:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 19:30:56.895820
- Title: Lens: A Foundation Model for Network Traffic in Cybersecurity
- Title(参考訳): Lens: サイバーセキュリティにおけるネットワークトラフィックの基礎モデル
- Authors: Qineng Wang, Chen Qian, Xiaochang Li, Ziyu Yao, Huajie Shao
- Abstract要約: Lensは、T5アーキテクチャを活用して、大規模な未ラベルデータから事前訓練された表現を学習するネットワークトラフィックの基礎モデルである。
Masked Span Prediction(MSP)、Packet Order Prediction(POP)、Homologous Traffic Prediction(HTP)の3つの異なるタスクを組み合わせた新しい損失を設計する。
- 参考スコア(独自算出の注目度): 19.71042183770703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network traffic refers to the amount of data being sent and received over the
internet or any system that connects computers. Analyzing and understanding
network traffic is vital for improving network security and management.
However, the analysis of network traffic is challenging due to the diverse
nature of data packets, which often feature heterogeneous headers and encrypted
payloads lacking semantics. To capture the latent semantics of traffic, a few
studies have adopted pre-training techniques based on the Transformer encoder
or decoder to learn the representations from massive traffic data. However,
these methods typically excel in traffic understanding (classification) or
traffic generation tasks. To address this issue, we develop Lens, a foundation
model for network traffic that leverages the T5 architecture to learn the
pre-trained representations from large-scale unlabeled data. Harnessing the
strength of the encoder-decoder framework, which captures the global
information while preserving the generative ability, our model can better learn
the representations from raw data. To further enhance pre-training
effectiveness, we design a novel loss that combines three distinct tasks:
Masked Span Prediction (MSP), Packet Order Prediction (POP), and Homologous
Traffic Prediction (HTP). Evaluation results across various benchmark datasets
demonstrate that the proposed Lens outperforms the baselines in most downstream
tasks related to both traffic understanding and generation. Notably, it also
requires much less labeled data for fine-tuning compared to current methods.
- Abstract(参考訳): ネットワークトラフィック(英: network traffic)とは、インターネットやコンピュータを接続するシステムを通じて送受信されるデータ量を指す。
ネットワークのセキュリティと管理を改善するには,ネットワークトラフィックの分析と理解が不可欠である。
しかし、ネットワークトラフィックの分析は、異種ヘッダーやセマンティクスに欠ける暗号化ペイロードを特徴とするデータパケットが多様であるため、困難である。
トラフィックの潜在的セマンティクスを捉えるために、Transformerエンコーダやデコーダに基づく事前学習技術を用いて、大量のトラフィックデータから表現を学習する研究がいくつかある。
しかし、これらの手法は一般的にトラフィック理解(分類)やトラフィック生成タスクに優れている。
この問題に対処するため,T5アーキテクチャを利用したネットワークトラフィック基盤モデルLensを開発し,大規模未ラベルデータから事前学習を行う。
生成能力を維持しつつ、グローバル情報をキャプチャするエンコーダ・デコーダ・フレームワークの強みを活用して、モデルが生データから表現をより良く学習できる。
事前学習の有効性をさらに高めるために,マスク付きスパン予測(MSP),パケット順序予測(POP),ホモログトラフィック予測(HTP)の3つの異なるタスクを組み合わせた新しい損失を設計する。
さまざまなベンチマークデータセットにおける評価結果から,提案するレンズは,トラヒック理解と生成の両方に関連する下流タスクのベースラインを上回っていることが分かる。
注目すべきは、現在の方法に比べて微調整のためにラベル付きデータを必要とする点だ。
関連論文リスト
- BjTT: A Large-scale Multimodal Dataset for Traffic Prediction [49.93028461584377]
従来の交通予測手法は、交通トレンドを予測するために、過去の交通データに依存している。
本研究では,交通システムを記述するテキストと生成モデルを組み合わせることで,交通生成にどのように応用できるかを考察する。
本稿では,テキスト・トラフィック生成のための最初の拡散モデルChatTrafficを提案する。
論文 参考訳(メタデータ) (2024-03-08T04:19:56Z) - NetDiffus: Network Traffic Generation by Diffusion Models through
Time-Series Imaging [3.208802773440937]
我々は,1次元時系列ネットワークトラフィックを2次元画像に変換し,元のデータを表す画像を合成するエンド・ツー・エンド・エンド・フレームワークであるNetDiffusを開発した。
我々は、生成したデータの忠実度を66.4%増加し、下流機械学習タスクを18.1%増加させることにより、GAN(Generative Adversarial Networks)に基づく最先端のトラフィック生成手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-23T18:13:12Z) - NetGPT: Generative Pretrained Transformer for Network Traffic [4.205009931131087]
ネットワークトラフィックの事前訓練モデルでは,大規模生データを用いてネットワークトラフィックの本質的特性を学習することができる。
本稿では,トラフィックの理解と生成のための生成事前学習モデルNetGPTを提案する。
論文 参考訳(メタデータ) (2023-04-19T09:04:30Z) - TraffNet: Learning Causality of Traffic Generation for What-if
Prediction [4.835524672885856]
インテリジェントなトラフィック管理と制御における意思決定には,リアルタイムなトラフィック予測が不可欠だ。
本稿では、車両軌跡データから交通発生のメカニズムを学習するTraffNetという単純なディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:12:17Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - ET-BERT: A Contextualized Datagram Representation with Pre-training
Transformers for Encrypted Traffic Classification [9.180725486824118]
トランスフォーマー(ET-BERT)からの暗号化トラフィック双方向表現と呼ばれる新しいトラフィック表現モデルを提案する。
事前訓練されたモデルは、少数のタスク固有のラベル付きデータに基づいて微調整し、5つの暗号化されたトラフィック分類タスクで最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2022-02-13T14:54:48Z) - Auto-Transfer: Learning to Route Transferrable Representations [77.30427535329571]
本稿では,適切なターゲット表現にソース表現をルートする方法を自動学習する,新しい対向型マルチアームバンディット手法を提案する。
最先端の知識伝達手法と比較すると,5%以上の精度向上が期待できる。
論文 参考訳(メタデータ) (2022-02-02T13:09:27Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - Learning dynamic and hierarchical traffic spatiotemporal features with
Transformer [4.506591024152763]
本稿では,空間時間グラフモデリングと長期交通予測のための新しいモデルであるTraffic Transformerを提案する。
Transformerは自然言語処理(NLP)で最も人気のあるフレームワークです。
注目重量行列を解析すれば 道路網の 影響力のある部分を見つけられる 交通網をよりよく学べる
論文 参考訳(メタデータ) (2021-04-12T02:29:58Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。