論文の概要: Universal Embedding Function for Traffic Classification via QUIC Domain Recognition Pretraining: A Transfer Learning Success
- arxiv url: http://arxiv.org/abs/2502.12930v1
- Date: Tue, 18 Feb 2025 15:12:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:05:39.003888
- Title: Universal Embedding Function for Traffic Classification via QUIC Domain Recognition Pretraining: A Transfer Learning Success
- Title(参考訳): QUICドメイン認識事前学習による交通分類のためのユニバーサル埋め込み機能:移行学習成功
- Authors: Jan Luxemburk, Karel Hynek, Richard Plný, Tomáš Čejka,
- Abstract要約: 暗号化されたトラフィック分類手法は、新しいプロトコルや拡張に適応する必要がある。
我々は、多数のクラスを持つ複雑なタスクに埋め込みモデルを事前訓練し、それをよく知られた5つのTCデータセットに転送する。
提案手法は,5つのTCデータセットのうち4つのSOTA性能を上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Encrypted traffic classification (TC) methods must adapt to new protocols and extensions as well as to advancements in other machine learning fields. In this paper, we follow a transfer learning setup best known from computer vision. We first pretrain an embedding model on a complex task with a large number of classes and then transfer it to five well-known TC datasets. The pretraining task is recognition of SNI domains in encrypted QUIC traffic, which in itself is a problem for network monitoring due to the growing adoption of TLS Encrypted Client Hello. Our training pipeline -- featuring a disjoint class setup, ArcFace loss function, and a modern deep learning architecture -- aims to produce universal embeddings applicable across tasks. The proposed solution, based on nearest neighbors search in the embedding space, surpasses SOTA performance on four of the five TC datasets. A comparison with a baseline method utilizing raw packet sequences revealed unexpected findings with potential implications for the broader TC field. We published the model architecture, trained weights, and transfer learning experiments.
- Abstract(参考訳): 暗号化トラフィック分類(TC)手法は、他の機械学習分野の進歩と同様に、新しいプロトコルや拡張に適応する必要がある。
本稿では,コンピュータビジョンから最もよく知られたトランスファーラーニング・セットアップに従う。
まず、多数のクラスを持つ複雑なタスクに埋め込みモデルをプリトレーニングし、それをよく知られた5つのTCデータセットに転送する。
プリトレーニングタスクは、暗号化QUICトラフィックにおけるSNIドメインの認識である。
私たちのトレーニングパイプラインは、不整合クラスセットアップ、ArcFace損失関数、モダンなディープラーニングアーキテクチャを特徴としています。
提案手法は,5つのTCデータセットのうち4つのSOTA性能を上回っている。
生パケット列を用いたベースライン法との比較により,広範なTCフィールドに影響を及ぼす可能性のある予期せぬ発見が判明した。
モデルアーキテクチャ、トレーニングされたウェイト、トランスファーラーニング実験を公開しました。
関連論文リスト
- One Train for Two Tasks: An Encrypted Traffic Classification Framework
Using Supervised Contrastive Learning [18.63871240173137]
CLE-TFE(Contrastive Learning Enhanced Temporal Fusion)と呼ばれる効果的なモデルを提案する。
特に、教師付きコントラスト学習を利用して、パケットレベルおよびフローレベル表現を強化する。
また、パケットレベルとフローレベルの分類タスクを1つのトレーニングで同時に行うクロスレベルマルチタスク学習を提案する。
論文 参考訳(メタデータ) (2024-02-12T09:10:09Z) - Lens: A Foundation Model for Network Traffic [19.3652490585798]
Lensは、T5アーキテクチャを活用して、大規模な未ラベルデータから事前訓練された表現を学習するネットワークトラフィックの基礎モデルである。
Masked Span Prediction(MSP)、Packet Order Prediction(POP)、Homologous Traffic Prediction(HTP)の3つの異なるタスクを組み合わせた新しい損失を設計する。
論文 参考訳(メタデータ) (2024-02-06T02:45:13Z) - Many or Few Samples? Comparing Transfer, Contrastive and Meta-Learning
in Encrypted Traffic Classification [68.19713459228369]
我々は、トランスファーラーニング、メタラーニング、コントラストラーニングを、参照機械学習(ML)ツリーベースおよびモノリシックDLモデルと比較する。
i) 大規模なデータセットを用いて,より一般的な表現を得られること,(ii) コントラスト学習が最良の手法であることを示している。
MLツリーベースでは大きなタスクは処理できないが、学習した表現を再利用することで、小さなタスクにも適合するが、DLメソッドはツリーベースモデルのパフォーマンスにも到達している。
論文 参考訳(メタデータ) (2023-05-21T11:20:49Z) - Novel transfer learning schemes based on Siamese networks and synthetic
data [6.883906273999368]
ディープネットワークに基づくトランスファーラーニングスキームは、コンピュータビジョンの最先端技術を提供する。
このようなアプリケーションは現在、適切なディープ・ネットワーク・モデルを簡単に利用できるアプリケーション・ドメインに限られている。
本稿では,最近導入されたTwin-VAEアーキテクチャを拡張したトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:48:21Z) - GPPF: A General Perception Pre-training Framework via Sparsely Activated
Multi-Task Learning [23.15735672234869]
本稿では,タスクレベルの動的ネットワークを事前学習するための一般知覚事前学習フレームワークであるGPPFを提案する。
複雑な環境で学習する能力を調べることによって、3つの重要な要素を深層ネットワークに認識し、伝達する。
SIMT (Single Iteration Multiple Tasks) の同時学習を支援するプラグイン・アンド・プレイ型マルチタスク学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-08-03T15:34:35Z) - Pushing the Limits of Simple Pipelines for Few-Shot Learning: External
Data and Fine-Tuning Make a Difference [74.80730361332711]
コンピュータビジョンにおいて、ほとんどショット学習は重要かつトピック的な問題である。
単純なトランスフォーマーベースのパイプラインは、標準ベンチマークで驚くほど優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-04-15T02:55:58Z) - Task-Oriented Image Transmission for Scene Classification in Unmanned
Aerial Systems [46.64800170644672]
シーン分類作業のための新しい航空画像伝送パラダイムを提案する。
画像やチャネル条件の認識を伴うセマンティックブロック伝送のための,フロントエンドUAV上での軽量モデルを開発した。
伝送遅延と分類精度のトレードオフを達成するために、深層強化学習を用いる。
論文 参考訳(メタデータ) (2021-12-21T02:44:49Z) - Benchmarking Detection Transfer Learning with Vision Transformers [60.97703494764904]
オブジェクト検出メソッドの複雑さは、ViT(Vision Transformer)モデルのような新しいアーキテクチャが到着するときに、ベンチマークを非簡単にする。
本研究では,これらの課題を克服し,標準的なVTモデルをMask R-CNNのバックボーンとして活用する訓練手法を提案する。
その結果,最近のマスキングに基づく教師なし学習手法は,COCOにおける説得力のあるトランスファー学習改善をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-22T18:59:15Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - A Transductive Multi-Head Model for Cross-Domain Few-Shot Learning [72.30054522048553]
本稿では,クロスドメインなFew-Shot学習問題に対処するため,TMHFS(Transductive Multi-Head Few-Shot Learning)を提案する。
提案手法は, 4つの異なる対象領域において, 強いベースライン, 微調整を著しく上回っている。
論文 参考訳(メタデータ) (2020-06-08T02:39:59Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。