論文の概要: Respond to Change with Constancy: Instruction-tuning with LLM for Non-I.I.D. Network Traffic Classification
- arxiv url: http://arxiv.org/abs/2505.20866v1
- Date: Tue, 27 May 2025 08:18:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.500912
- Title: Respond to Change with Constancy: Instruction-tuning with LLM for Non-I.I.D. Network Traffic Classification
- Title(参考訳): 非I.D.ネットワークトラフィック分類のためのLCMによる指導学習
- Authors: Xinjie Lin, Gang Xiong, Gaopeng Gou, Wenqi Dong, Jing Yu, Zhen Li, Wei Xia,
- Abstract要約: LLM(ETooL)を用いた暗号化トラフィックアウトオブディストリビューションインストラクションチューニングという,新しいトラフィック表現モデルを提案する。
ETooLは、自己教師型命令チューニングパラダイムを通じて、交通構造に関する知識とLLMを統合している。
教師付きおよびゼロショットのトラフィック分類タスクにおいて、より堅牢な分類性能と優れた一般化を示す。
- 参考スコア(独自算出の注目度): 17.134758794735678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Encrypted traffic classification is highly challenging in network security due to the need for extracting robust features from content-agnostic traffic data. Existing approaches face critical issues: (i) Distribution drift, caused by reliance on the closedworld assumption, limits adaptability to realworld, shifting patterns; (ii) Dependence on labeled data restricts applicability where such data is scarce or unavailable. Large language models (LLMs) have demonstrated remarkable potential in offering generalizable solutions across a wide range of tasks, achieving notable success in various specialized fields. However, their effectiveness in traffic analysis remains constrained by challenges in adapting to the unique requirements of the traffic domain. In this paper, we introduce a novel traffic representation model named Encrypted Traffic Out-of-Distribution Instruction Tuning with LLM (ETooL), which integrates LLMs with knowledge of traffic structures through a self-supervised instruction tuning paradigm. This framework establishes connections between textual information and traffic interactions. ETooL demonstrates more robust classification performance and superior generalization in both supervised and zero-shot traffic classification tasks. Notably, it achieves significant improvements in F1 scores: APP53 (I.I.D.) to 93.19%(6.62%) and 92.11%(4.19%), APP53 (O.O.D.) to 74.88%(18.17%) and 72.13%(15.15%), and ISCX-Botnet (O.O.D.) to 95.03%(9.16%) and 81.95%(12.08%). Additionally, we construct NETD, a traffic dataset designed to support dynamic distributional shifts, and use it to validate ETooL's effectiveness under varying distributional conditions. Furthermore, we evaluate the efficiency gains achieved through ETooL's instruction tuning approach.
- Abstract(参考訳): 暗号化されたトラフィック分類は、コンテンツに依存しないトラフィックデータからロバストな特徴を抽出する必要があるため、ネットワークセキュリティにおいて非常に困難である。
既存のアプローチは、重大な問題に直面します。
一 クローズドワールドの前提、現実への適応性、シフトパターンによる配流
(ii)ラベル付きデータへの依存は、そのようなデータが不足したり、利用できない場合の適用性を制限します。
大規模言語モデル(LLM)は、様々な専門分野において顕著な成功を収め、幅広いタスクにまたがる一般化可能なソリューションを提供することにおいて、顕著な可能性を示している。
しかし、トラフィック分析におけるそれらの効果は、トラフィック領域のユニークな要件に適応する際の課題によって制限されている。
本稿では,LLM(ETooL)を用いた暗号化トラフィックアウトオブディストリビューション命令チューニング(Encrypted Traffic Out-of-Distribution Instruction Tuning)という新しいトラフィック表現モデルを提案する。
このフレームワークは、テキスト情報とトラフィックの相互作用の間の接続を確立する。
ETooLは、教師付きおよびゼロショットのトラフィック分類タスクにおいて、より堅牢な分類性能と優れた一般化を示す。
APP53(I.I.D.)が93.19%(6.62%)、92.11%(4.19%)、APP53(O.O.D.)が74.88%(18.17%)、72.13%(15.15%)、ICCX-Botnet(O.O.D.)が95.03%(9.16%)、81.95%(12.08%)である。
さらに、動的分散シフトをサポートするために設計されたトラフィックデータセットであるNETDを構築し、ETooLの有効性を様々な分散条件下で検証する。
さらに,ETooLの命令チューニング手法によって達成した効率性の評価を行った。
関連論文リスト
- TrafficLLM: Enhancing Large Language Models for Network Traffic Analysis with Generic Traffic Representation [14.470174593447702]
大規模言語モデル(LLM)は様々な領域で有望な性能を示している。
TrafficLLMは、生のトラフィックデータから一般的なトラフィック表現を学ぶための2段階の微調整フレームワークを導入している。
F1スコアは0.9875と0.9483で、既存の検出および生成方法よりも最大80.12%、33.92%性能が向上している。
論文 参考訳(メタデータ) (2025-04-05T16:18:33Z) - Optimal Transport Adapter Tuning for Bridging Modality Gaps in Few-Shot Remote Sensing Scene Classification [80.83325513157637]
Few-Shot Remote Sensing Scene Classification (FS-RSSC)は,限られたラベル付きサンプルを用いたリモートセンシング画像の分類の課題を示す。
理想的なプラトン表現空間を構築することを目的とした,OTAT(Optimal Transport Adapter Tuning)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T07:04:24Z) - Confident or Seek Stronger: Exploring Uncertainty-Based On-device LLM Routing From Benchmarking to Generalization [61.02719787737867]
大規模言語モデル(LLM)はますますエッジデバイスにデプロイされ、民主化されている。
1つの有望な解決策は不確実性に基づくSLMルーティングであり、SLM上での低信頼応答が発生すると、高い要求を強いLCMにオフロードする。
我々は1500以上の設定でSLMからLLMへの不確実性駆動型ルーティング戦略のベンチマークと一般化を包括的に調査する。
論文 参考訳(メタデータ) (2025-02-06T18:59:11Z) - MIETT: Multi-Instance Encrypted Traffic Transformer for Encrypted Traffic Classification [59.96233305733875]
トラフィックの分類は、セキュリティの脅威を検出し、ネットワーク管理を最適化するために不可欠である。
トークンレベルとパケットレベルの両方の関係をキャプチャするMulti-Instance Encrypted Traffic Transformer (MIETT)を提案する。
MIETTは5つのデータセットにまたがって結果を達成し、暗号化されたトラフィックの分類と複雑なネットワーク動作の理解の有効性を示す。
論文 参考訳(メタデータ) (2024-12-19T12:52:53Z) - Improving Traffic Flow Predictions with SGCN-LSTM: A Hybrid Model for Spatial and Temporal Dependencies [55.2480439325792]
本稿ではSGCN-LSTM(Signal-Enhanced Graph Convolutional Network Long Short Term Memory)モデルを提案する。
PEMS-BAYロードネットワークトラフィックデータセットの実験は、SGCN-LSTMモデルの有効性を示す。
論文 参考訳(メタデータ) (2024-11-01T00:37:00Z) - Strada-LLM: Graph LLM for traffic prediction [62.2015839597764]
交通予測における大きな課題は、非常に異なる交通条件によって引き起こされる多様なデータ分散を扱うことである。
近位交通情報を考慮した交通予測のためのグラフ対応LLMを提案する。
我々は、新しいデータ分散に直面する際に、ドメイン適応を効率的にするための軽量なアプローチを採用する。
論文 参考訳(メタデータ) (2024-10-28T09:19:29Z) - FedAuxHMTL: Federated Auxiliary Hard-Parameter Sharing Multi-Task Learning for Network Edge Traffic Classification [9.816810723612653]
本稿では,FedAuxHMTLという,多タスク学習のための補助的ハードパラメータ共有フレームワークを提案する。
エッジサーバとベースステーション間のモデルパラメータ交換を取り入れ、分散領域のベースステーションがFedAuxHMTLプロセスに参加することを可能にする。
実験により,FedAuxHMTLの有効性を,精度,全地球的損失,通信コスト,計算時間,エネルギー消費の観点から検証し,実証した。
論文 参考訳(メタデータ) (2024-04-11T16:23:28Z) - Online Spatio-Temporal Correlation-Based Federated Learning for Traffic
Flow Forecasting [11.253575460227127]
本稿では,FLフレームワークにおけるオンライン学習(OL)方式を用いた交通流の予測に関する最初の研究を行う。
次に,オンライン時空間相関に基づくフェデレート学習(FedOSTC)という新しい予測手法を提案する。
論文 参考訳(メタデータ) (2023-02-17T02:37:36Z) - ET-BERT: A Contextualized Datagram Representation with Pre-training
Transformers for Encrypted Traffic Classification [9.180725486824118]
トランスフォーマー(ET-BERT)からの暗号化トラフィック双方向表現と呼ばれる新しいトラフィック表現モデルを提案する。
事前訓練されたモデルは、少数のタスク固有のラベル付きデータに基づいて微調整し、5つの暗号化されたトラフィック分類タスクで最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2022-02-13T14:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。