論文の概要: Network Traffic Classification Using Machine Learning, Transformer, and Large Language Models
- arxiv url: http://arxiv.org/abs/2503.02141v1
- Date: Tue, 04 Mar 2025 00:18:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:25:41.254535
- Title: Network Traffic Classification Using Machine Learning, Transformer, and Large Language Models
- Title(参考訳): 機械学習, トランスフォーマー, 大規模言語モデルを用いたネットワークトラフィック分類
- Authors: Ahmad Antari, Yazan Abo-Aisheh, Jehad Shamasneh, Huthaifa I. Ashqar,
- Abstract要約: 本研究では,ネットワークトラフィックの分類,Webへのトラフィックの分類,ブラウジング,バックアップ,電子メールなど,さまざまなモデルを用いた。
Arbor Edge Defender(AED)デバイスから,30,959の観測結果と19の特徴からなる包括的なデータセットを収集した。
Naive Bayes, Decision Tree, Random Forest, Gradient Boosting, XGBoost, Deep Networks (DNN), Transformer, and two Large Language Models (LLMs) with zero- and few-shot learning。
- 参考スコア(独自算出の注目度): 1.1137087573421256
- License:
- Abstract: This study uses various models to address network traffic classification, categorizing traffic into web, browsing, IPSec, backup, and email. We collected a comprehensive dataset from Arbor Edge Defender (AED) devices, comprising of 30,959 observations and 19 features. Multiple models were evaluated, including Naive Bayes, Decision Tree, Random Forest, Gradient Boosting, XGBoost, Deep Neural Networks (DNN), Transformer, and two Large Language Models (LLMs) including GPT-4o and Gemini with zero- and few-shot learning. Transformer and XGBoost showed the best performance, achieving the highest accuracy of 98.95 and 97.56%, respectively. GPT-4o and Gemini showed promising results with few-shot learning, improving accuracy significantly from initial zero-shot performance. While Gemini Few-Shot and GPT-4o Few-Shot performed well in categories like Web and Email, misclassifications occurred in more complex categories like IPSec and Backup. The study highlights the importance of model selection, fine-tuning, and the balance between training data size and model complexity for achieving reliable classification results.
- Abstract(参考訳): 本研究では,ネットワークトラフィックの分類,Web,ブラウジング,IPSec,バックアップ,電子メールへのトラフィックの分類にさまざまなモデルを用いる。
Arbor Edge Defender(AED)デバイスから,30,959の観測結果と19の特徴からなる包括的なデータセットを収集した。
Naive Bayes, Decision Tree, Random Forest, Gradient Boosting, XGBoost, Deep Neural Networks (DNN), Transformer, and two Large Language Models (LLMs) with zero- and few-shot learning。
トランスフォーマーとXGBoostは最高性能を示し、それぞれ98.95と97.56%の精度を達成した。
GPT-4oとGeminiは、数ショットの学習で有望な結果を示し、最初のゼロショットのパフォーマンスから精度を大幅に向上させた。
Gemini Few-Shot と GPT-4o Few-Shot は Web や Email のようなカテゴリでよく機能したが、IPSec や Backup のようなより複雑なカテゴリでは誤分類が起きている。
この研究は、モデル選択、微調整、信頼性の高い分類結果を達成するためのトレーニングデータサイズとモデルの複雑さのバランスの重要性を強調した。
関連論文リスト
- Impact of Privacy Parameters on Deep Learning Models for Image Classification [0.5439020425819]
CIFAR-10データセット citecifar10 を用いた画像分類のための差分プライベートディープラーニングモデルを開発した。
モデル精度に及ぼす各種プライバシパラメータの影響を解析する。
今までで最高のパフォーマンスモデルは、以下のパラメータでテスト精度59.63%のEfficientNetです。
論文 参考訳(メタデータ) (2024-12-09T17:31:55Z) - Self-Supervised Learning in Deep Networks: A Pathway to Robust Few-Shot Classification [0.0]
まず、ラベルのない大量のデータから共通特徴表現を学習できるように、自己スーパービジョンでモデルを事前訓練する。
その後、数ショットのデータセットMini-ImageNetで微調整を行い、限られたデータの下でモデルの精度と一般化能力を改善する。
論文 参考訳(メタデータ) (2024-11-19T01:01:56Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Convolutional Neural Networks for the classification of glitches in
gravitational-wave data streams [52.77024349608834]
我々は、高度LIGO検出器のデータから過渡ノイズ信号(グリッチ)と重力波を分類する。
どちらも、Gravity Spyデータセットを使用して、スクラッチからトレーニングされた、教師付き学習アプローチのモデルを使用します。
また、擬似ラベルの自動生成による事前学習モデルの自己教師型アプローチについても検討する。
論文 参考訳(メタデータ) (2023-03-24T11:12:37Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Classification of Astronomical Bodies by Efficient Layer Fine-Tuning of
Deep Neural Networks [0.0]
SDSS-IVデータセットには、銀河、星、クエーサーなどの様々な天体に関する情報が含まれている。
深層マルチモーダル学習の研究に触発されて、これらのアーキテクチャの微調整に関する研究をさらに拡張し、分類シナリオの効果について検討した。
論文 参考訳(メタデータ) (2022-05-14T20:08:19Z) - Efficient deep learning models for land cover image classification [0.29748898344267777]
土地利用土地被覆(LULC)画像分類のためのBigEarthNetデータセットを用いて実験を行った。
コンボリューションニューラルネットワーク、マルチ層パーセプトロン、ビジュアルトランスフォーマー、効率的なネットワーク、ワイド残留ネットワーク(WRN)など、さまざまな最先端モデルをベンチマークする。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
論文 参考訳(メタデータ) (2021-11-18T00:03:14Z) - Guiding Generative Language Models for Data Augmentation in Few-Shot
Text Classification [59.698811329287174]
我々は、GPT-2を用いて、分類性能を向上させるために、人工訓練インスタンスを生成する。
実験の結果,少数のラベルインスタンスでGPT-2を微調整すると,一貫した分類精度が向上することがわかった。
論文 参考訳(メタデータ) (2021-11-17T12:10:03Z) - How to train your ViT? Data, Augmentation, and Regularization in Vision
Transformers [74.06040005144382]
ビジョントランスフォーマー(ViT)は、幅広いビジョンアプリケーションにおいて高い競争力を発揮することが示されている。
我々は,トレーニングデータの量,AugReg,モデルサイズ,計算予算の相互作用をよりよく理解するために,体系的な実証的研究を行う。
私たちは、パブリックなImageNet-21kデータセットでさまざまなサイズのViTモデルをトレーニングします。
論文 参考訳(メタデータ) (2021-06-18T17:58:20Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。