論文の概要: ET-BERT: A Contextualized Datagram Representation with Pre-training
Transformers for Encrypted Traffic Classification
- arxiv url: http://arxiv.org/abs/2202.06335v1
- Date: Sun, 13 Feb 2022 14:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 17:44:13.452288
- Title: ET-BERT: A Contextualized Datagram Representation with Pre-training
Transformers for Encrypted Traffic Classification
- Title(参考訳): et-bert: 暗号化トラフィック分類のための事前トレーニングトランスフォーマーによるコンテキスト化データグラム表現
- Authors: Xinjie Lin, Gang Xiong, Gaopeng Gou, Zhen Li, Junzheng Shi, Jing Yu
- Abstract要約: トランスフォーマー(ET-BERT)からの暗号化トラフィック双方向表現と呼ばれる新しいトラフィック表現モデルを提案する。
事前訓練されたモデルは、少数のタスク固有のラベル付きデータに基づいて微調整し、5つの暗号化されたトラフィック分類タスクで最先端のパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 9.180725486824118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Encrypted traffic classification requires discriminative and robust traffic
representation captured from content-invisible and imbalanced traffic data for
accurate classification, which is challenging but indispensable to achieve
network security and network management. The major limitation of existing
solutions is that they highly rely on the deep features, which are overly
dependent on data size and hard to generalize on unseen data. How to leverage
the open-domain unlabeled traffic data to learn representation with strong
generalization ability remains a key challenge. In this paper,we propose a new
traffic representation model called Encrypted Traffic Bidirectional Encoder
Representations from Transformer (ET-BERT), which pre-trains deep
contextualized datagram-level representation from large-scale unlabeled data.
The pre-trained model can be fine-tuned on a small number of task-specific
labeled data and achieves state-of-the-art performance across five encrypted
traffic classification tasks, remarkably pushing the F1 of ISCX-Tor to 99.2%
(4.4% absolute improvement), ISCX-VPN-Service to 98.9% (5.2% absolute
improvement), Cross-Platform (Android) to 92.5% (5.4% absolute improvement),
CSTNET-TLS 1.3 to 97.4% (10.0% absolute improvement). Notably, we provide
explanation of the empirically powerful pre-training model by analyzing the
randomness of ciphers. It gives us insights in understanding the boundary of
classification ability over encrypted traffic. The code is available at:
https://github.com/linwhitehat/ET-BERT.
- Abstract(参考訳): 暗号化されたトラフィック分類には、正確な分類のために、コンテンツ非可視かつ不均衡なトラフィックデータから取得した差別的で堅牢なトラフィック表現が必要である。
既存のソリューションの最大の制限は、データサイズに過度に依存し、見えないデータの一般化が難しい、深い機能に大きく依存していることです。
オープンドメインのラベルのないトラフィックデータを、強力な一般化能力で表現を学習する方法は、依然として重要な課題である。
本稿では,大規模非ラベルデータからの深いコンテキスト化データグラムレベル表現を事前学習するtransformer (et-bert) から,暗号化トラフィック双方向エンコーダ表現と呼ばれる新しいトラフィック表現モデルを提案する。
ISCX-Tor の F1 を 99.2% (4.4% の絶対改善), ISCX-VPN-Service を 98.9% (5.2% の絶対改善), クロスプラットフォーム (Android) を 92.5% (5.4% の絶対改善), CSTNET-TLS 1.3 から 97.4% (10.0% の絶対改善) に押し上げた。
特に,暗号のランダム性を分析し,経験的に強力な事前学習モデルの解説を行う。
暗号化されたトラフィックに対する分類能力の境界を理解するための洞察を与えてくれる。
コードはhttps://github.com/linwhitehat/et-bert。
関連論文リスト
- Cross-domain Few-shot In-context Learning for Enhancing Traffic Sign Recognition [49.20086587208214]
交通信号認識の強化を目的としたMLLMに基づくドメイン間数ショットインコンテキスト学習手法を提案する。
記述テキストを使用することで、テンプレートと実際の交通標識のドメイン間差を低減することができる。
提案手法は,大規模交通標識画像やラベルを必要とせず,単純かつ均一なテキスト表示のみを必要とする。
論文 参考訳(メタデータ) (2024-07-08T10:51:03Z) - BjTT: A Large-scale Multimodal Dataset for Traffic Prediction [49.93028461584377]
従来の交通予測手法は、交通トレンドを予測するために、過去の交通データに依存している。
本研究では,交通システムを記述するテキストと生成モデルを組み合わせることで,交通生成にどのように応用できるかを考察する。
本稿では,テキスト・トラフィック生成のための最初の拡散モデルChatTrafficを提案する。
論文 参考訳(メタデータ) (2024-03-08T04:19:56Z) - Lens: A Foundation Model for Network Traffic [19.3652490585798]
Lensは、T5アーキテクチャを活用して、大規模な未ラベルデータから事前訓練された表現を学習するネットワークトラフィックの基礎モデルである。
Masked Span Prediction(MSP)、Packet Order Prediction(POP)、Homologous Traffic Prediction(HTP)の3つの異なるタスクを組み合わせた新しい損失を設計する。
論文 参考訳(メタデータ) (2024-02-06T02:45:13Z) - Low-Quality Training Data Only? A Robust Framework for Detecting Encrypted Malicious Network Traffic [19.636282208765547]
機械学習モデルが低品質のトレーニングデータでトレーニングされると、パフォーマンスが低下する。
特徴空間における正常なトラフィックと悪意のあるトラフィックの分布を完全に活用するRAPIERを開発した。
RAPIERは、暗号化された悪意のあるトラフィック検出を、最高のF1スコアである0.773で効果的に達成し、既存のメソッドのF1スコアを平均272.5%改善する。
論文 参考訳(メタデータ) (2023-09-09T13:49:30Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Extensible Machine Learning for Encrypted Network Traffic Application
Labeling via Uncertainty Quantification [0.0]
ラベル付き仮想プライベートネットワーク(VPN)暗号化ネットワークトラフィックを10のアプリケーションで生成し,5つのアプリケーションカテゴリに対応する,新たなパブリックなネットワークトラフィックデータセットを提案する。
また、控えめなデータ要件で迅速にトレーニングし、キャリブレーションされた予測確率と、新しいトラフィックサンプルにフラグをつけるための解釈可能なアウト・オブ・ディストリビューション(OOD)スコアを提供するように設計されたMLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-11T16:54:37Z) - Fine-grained TLS Services Classification with Reject Option [0.0]
本稿では,パケットレベルのメタデータで拡張された200近いきめ細かいサービスラベルと1億4000万のネットワークフローを持つ,大規模で最新のデータセットの収集に焦点をあてる。
フローの数は、他の公開ラベル付き暗号化トラフィックデータセットよりも3桁高い。
公開されたデータセットは、暗号化されたトラフィック内のサービスを特定するためのベンチマークとして意図されている。
論文 参考訳(メタデータ) (2022-02-24T09:44:12Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - CGNN: Traffic Classification with Graph Neural Network [13.851922724661538]
本稿では,連鎖グラフ上で自動的に抽出された特徴に対してグラフ分類器を構築するグラフニューラルネットワークに基づくトラフィック分類手法を提案する。
CGNNは、アプリケーション分類における予測精度を23%から29%改善し、悪意のあるトラフィック分類では2%から37%改善し、暗号化されたトラフィック分類では同じ精度に達する。
論文 参考訳(メタデータ) (2021-10-19T04:10:07Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。