論文の概要: Many or Few Samples? Comparing Transfer, Contrastive and Meta-Learning
in Encrypted Traffic Classification
- arxiv url: http://arxiv.org/abs/2305.12432v2
- Date: Sat, 3 Jun 2023 07:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 01:10:19.711218
- Title: Many or Few Samples? Comparing Transfer, Contrastive and Meta-Learning
in Encrypted Traffic Classification
- Title(参考訳): サンプル数は少ないか少ないか?
暗号化トラフィック分類におけるトランスファー, コントラスト, メタラーニングの比較
- Authors: Idio Guarino, Chao Wang, Alessandro Finamore, Antonio Pescape, Dario
Rossi
- Abstract要約: 我々は、トランスファーラーニング、メタラーニング、コントラストラーニングを、参照機械学習(ML)ツリーベースおよびモノリシックDLモデルと比較する。
i) 大規模なデータセットを用いて,より一般的な表現を得られること,(ii) コントラスト学習が最良の手法であることを示している。
MLツリーベースでは大きなタスクは処理できないが、学習した表現を再利用することで、小さなタスクにも適合するが、DLメソッドはツリーベースモデルのパフォーマンスにも到達している。
- 参考スコア(独自算出の注目度): 68.19713459228369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The popularity of Deep Learning (DL), coupled with network traffic visibility
reduction due to the increased adoption of HTTPS, QUIC and DNS-SEC, re-ignited
interest towards Traffic Classification (TC). However, to tame the dependency
from task-specific large labeled datasets we need to find better ways to learn
representations that are valid across tasks. In this work we investigate this
problem comparing transfer learning, meta-learning and contrastive learning
against reference Machine Learning (ML) tree-based and monolithic DL models (16
methods total). Using two publicly available datasets, namely MIRAGE19 (40
classes) and AppClassNet (500 classes), we show that (i) using large datasets
we can obtain more general representations, (ii) contrastive learning is the
best methodology and (iii) meta-learning the worst one, and (iv) while ML
tree-based cannot handle large tasks but fits well small tasks, by means of
reusing learned representations, DL methods are reaching tree-based models
performance also for small tasks.
- Abstract(参考訳): Deep Learning(DL)の人気は、HTTPS、QUIC、DNS-SECの採用の増加によるネットワークトラフィックの可視性低下と相まって、トラフィック分類(TC)に対する関心を再燃させた。
しかし、タスク固有の大きなラベル付きデータセットからの依存関係を緩和するには、タスク間で有効な表現を学ぶより良い方法を見つける必要があります。
本研究では,参照機械学習(ml)木ベースおよびモノリシックdlモデル(合計16手法)に対するトランスファー学習,メタラーニング,コントラスト学習の比較を行った。
mirage19(40クラス)とappclassnet(500クラス)という2つの公開データセットを使用することで、
(i) より一般的な表現を得ることができる大きなデータセットを用いて。
(ii)対照的な学習は最良の方法であり、
(三)メタラーニングが最悪のもの、及び
(iv)MLツリーベースでは大きなタスクを処理できないが、学習した表現を再利用することで、非常に小さなタスクに適合するが、DLメソッドは小さなタスクでもツリーベースモデルのパフォーマンスに到達している。
関連論文リスト
- Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - Generic Multi-modal Representation Learning for Network Traffic Analysis [6.372999570085887]
ネットワークトラフィック分析は、ネットワーク管理、トラブルシューティング、セキュリティに不可欠である。
異なるユースケースを解決できる柔軟なマルチモーダルオートエンコーダ(MAE)パイプラインを提案する。
我々は、MAEアーキテクチャは汎用的であり、複数のシナリオで有用な表現の学習に使用できると論じる。
論文 参考訳(メタデータ) (2024-05-04T12:24:29Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Bad Students Make Great Teachers: Active Learning Accelerates Large-Scale Visual Understanding [9.112203072394648]
パワーロースケーリングは、均一サンプリングによる大規模トレーニングが違法に遅いことを示している。
アクティブな学習手法は、最も関係のある事例に基づいて学習を優先順位付けすることで、データの効率を向上させることを目的としている。
論文 参考訳(メタデータ) (2023-12-08T19:26:13Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - Pushing the Limits of Simple Pipelines for Few-Shot Learning: External
Data and Fine-Tuning Make a Difference [74.80730361332711]
コンピュータビジョンにおいて、ほとんどショット学習は重要かつトピック的な問題である。
単純なトランスフォーマーベースのパイプラインは、標準ベンチマークで驚くほど優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-04-15T02:55:58Z) - Fast Yet Effective Machine Unlearning [6.884272840652062]
本稿では,誤り最大化雑音発生と不適切な反動に基づく重み操作を併用した新しい機械学習フレームワークを提案する。
モデル全体の精度を著しく保ちながら、優れた未学習を示す。
この作業は、ディープネットワークにおけるアンラーニングの迅速かつ簡単な実装に向けた重要なステップである。
論文 参考訳(メタデータ) (2021-11-17T07:29:24Z) - Few-Shot Learning for Image Classification of Common Flora [0.0]
MAML(Model-Agnostic Meta Learning)を用いた画像分類のためのメタラーニング分野の最先端の研究と、さまざまな最先端のトランスファーラーニングウェイトとアーキテクチャをテストした結果を紹介します。
その結果、データセットが十分に大きい場合、両方のプラクティスが十分なパフォーマンスを提供しますが、十分なパフォーマンスを維持するためにデータスパーシャビリティが導入されると、どちらも苦労しています。
論文 参考訳(メタデータ) (2021-05-07T03:54:51Z) - Provable Meta-Learning of Linear Representations [114.656572506859]
我々は、複数の関連するタスクから共通の機能の集合を学習し、その知識を新しい未知のタスクに転送する、という2つの課題に対処する、高速でサンプル効率のアルゴリズムを提供する。
また、これらの線形特徴を学習する際のサンプルの複雑さに関する情報理論の下限も提供する。
論文 参考訳(メタデータ) (2020-02-26T18:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。