論文の概要: Efficient Traffic Classification using HW-NAS: Advanced Analysis and Optimization for Cybersecurity on Resource-Constrained Devices
- arxiv url: http://arxiv.org/abs/2506.11319v1
- Date: Thu, 12 Jun 2025 21:37:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.589745
- Title: Efficient Traffic Classification using HW-NAS: Advanced Analysis and Optimization for Cybersecurity on Resource-Constrained Devices
- Title(参考訳): HW-NASを用いた効率的な交通分類:資源制約デバイスにおけるサイバーセキュリティの高度分析と最適化
- Authors: Adel Chehade, Edoardo Ragusa, Paolo Gastaldo, Rodolfo Zunino,
- Abstract要約: 本稿ではハードウェア認識型ニューラルアーキテクチャサーチ(HW-NAS)により最適化されたハードウェア効率の高いディープニューラルネットワーク(DNN)を提案する。
リソース制約のあるIoT(Internet of Things)とエッジデバイス上でのセッションレベルの暗号化トラフィックの分類をサポートする。
最適化されたモデルは96.59%の精度で88.26Kのパラメータ、10.08MのFLOP、最大テンソルサイズは20.12Kである。
- 参考スコア(独自算出の注目度): 1.3124513975412255
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a hardware-efficient deep neural network (DNN), optimized through hardware-aware neural architecture search (HW-NAS); the DNN supports the classification of session-level encrypted traffic on resource-constrained Internet of Things (IoT) and edge devices. Thanks to HW-NAS, a 1D convolutional neural network (CNN) is tailored on the ISCX VPN-nonVPN dataset to meet strict memory and computational limits while achieving robust performance. The optimized model attains an accuracy of 96.59% with just 88.26K parameters, 10.08M FLOPs, and a maximum tensor size of 20.12K. Compared to state-of-the-art models, it achieves reductions of up to 444-fold, 312-fold, and 15.6-fold in these metrics, respectively, significantly minimizing memory footprint and runtime requirements. The model also demonstrates versatility in classification tasks, achieving accuracies of up to 99.64% in VPN differentiation, VPN-type classification, broader traffic categories, and application identification. In addition, an in-depth approach to header-level preprocessing strategies confirms that the optimized model can provide notable performances across a wide range of configurations, even in scenarios with stricter privacy considerations. Likewise, a reduction in the length of sessions of up to 75% yields significant improvements in efficiency, while maintaining high accuracy with only a negligible drop of 1-2%. However, the importance of careful preprocessing and session length selection in the classification of raw traffic data is still present, as improper settings or aggressive reductions can bring about a 7% reduction in overall accuracy. Those results highlight the method's effectiveness in enforcing cybersecurity for IoT networks, by providing scalable, efficient solutions for the real-time analysis of encrypted traffic within strict hardware limitations.
- Abstract(参考訳): 本稿では,ハードウェア対応ニューラルアーキテクチャサーチ(HW-NAS)により最適化されたハードウェア効率の高いディープニューラルネットワーク(DNN)を提案する。
HW-NASのおかげで、1D畳み込みニューラルネットワーク(CNN)はISCX VPN-nonVPNデータセットに基づいて調整され、厳格なメモリと計算制限を満たすと同時に、堅牢なパフォーマンスを実現する。
最適化されたモデルは96.59%の精度で88.26Kのパラメータ、10.08MのFLOP、最大テンソルサイズは20.12Kである。
最先端モデルと比較して、メモリフットプリントと実行時の要求を著しく最小化するため、これらのメトリクスで最大444倍、312倍、15.6倍の削減を実現している。
このモデルはまた、分類タスクの汎用性を示し、最大99.64%のVPN差別化、VPNタイプの分類、広範なトラフィックカテゴリ、アプリケーション識別を実現している。
さらに、ヘッダレベルの事前処理戦略に対する詳細なアプローチでは、最適化されたモデルが、より厳格なプライバシ考慮のシナリオであっても、幅広い構成で注目すべきパフォーマンスを提供できることを確認しています。
同様に、セッションの長さを75%まで短縮すると、効率が大幅に向上する一方で、無視できない1-2%の低下で高い精度を維持することができる。
しかし、不適切な設定やアグレッシブな削減によって全体の精度が7%低下する可能性があるため、生のトラフィックデータの分類における慎重な前処理やセッション長の選択の重要性は依然として存在する。
これらの結果は、厳格なハードウェア制限下で暗号化されたトラフィックをリアルタイムに分析するためのスケーラブルで効率的なソリューションを提供することにより、IoTネットワークのサイバーセキュリティを強化する方法の有効性を強調している。
関連論文リスト
- Efficient Fault Detection in WSN Based on PCA-Optimized Deep Neural Network Slicing Trained with GOA [0.6827423171182154]
従来の障害検出手法は、効率的なパフォーマンスのためにディープニューラルネットワーク(DNN)の最適化に苦労することが多い。
本研究では,これらの制約に対処するためにGrasshopper Optimization Algorithm(GOA)によって最適化されたDNNと主成分分析(PCA)を組み合わせた新しいハイブリッド手法を提案する。
従来の手法よりも優れた精度とリコールで,99.72%の分類精度を実現している。
論文 参考訳(メタデータ) (2025-05-11T15:51:56Z) - A Temporal Convolutional Network-based Approach for Network Intrusion Detection [0.0]
本研究では,ネットワークトラフィックデータの依存関係をキャプチャするために,拡張畳み込みを伴う残差ブロックアーキテクチャを特徴とする時間畳み込みネットワーク(TCN)モデルを提案する。
提案したモデルは96.72%の精度と0.0688の損失を達成し、1D CNN、CNN-LSTM、CNN-GRU、CNN-BiLSTM、CNN-GRU-LSTMモデルを上回った。
論文 参考訳(メタデータ) (2024-12-23T10:19:29Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - FxP-QNet: A Post-Training Quantizer for the Design of Mixed
Low-Precision DNNs with Dynamic Fixed-Point Representation [2.4149105714758545]
我々は、ディープニューラルネットワーク(FxP-QNet)の固定点量子化器(FixP-QNet)と呼ばれる新しいフレームワークを提案する。
FxP-QNetは、ネットワーク精度と低精度要求との間のトレードオフに基づいて、各レイヤのデータ構造ごとに量子化レベルを適用する。
その結果、FxP-QNet量子化されたAlexNet、VGG-16、ResNet-18は、全精度のメモリ要求を0.95%未満の7.16x、10.36x、6.44x、1.99%削減した。
論文 参考訳(メタデータ) (2022-03-22T23:01:43Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - Greedy Network Enlarging [53.319011626986004]
本稿では,計算のリアルタイム化に基づくグリーディ・ネットワーク拡大手法を提案する。
異なる段階の計算をステップバイステップで修正することで、拡張されたネットワークはMACの最適な割り当てと利用を提供する。
GhostNetへの我々の手法の適用により、最先端の80.9%と84.3%のImageNet Top-1アキュラシーを実現する。
論文 参考訳(メタデータ) (2021-07-31T08:36:30Z) - Ax-BxP: Approximate Blocked Computation for Precision-Reconfigurable
Deep Neural Network Acceleration [3.7371886886933487]
ディープニューラルネットワーク(DNN)の計算とストレージ要件を最適化する一般的な手法として、精度スケーリングが登場した。
超低精度(sub-8ビット)DNNの作成への取り組みは、与えられたネットワークレベルの精度を達成するために必要な最小精度がネットワーク間で大きく異なることを示唆している。
ビットシリアルハードウェアのような以前の提案は高いオーバーヘッドを発生させ、より精度の低い利点を著しく減らした。
論文 参考訳(メタデータ) (2020-11-25T20:00:38Z) - Fully Dynamic Inference with Deep Neural Networks [19.833242253397206]
Layer-Net(L-Net)とChannel-Net(C-Net)と呼ばれる2つのコンパクトネットワークは、どのレイヤやフィルタ/チャネルが冗長であるかをインスタンス毎に予測する。
CIFAR-10データセットでは、LC-Netは11.9$times$ less floating-point Operations (FLOPs) となり、他の動的推論手法と比較して最大3.3%精度が向上する。
ImageNetデータセットでは、LC-Netは最大1.4$times$ FLOPsを減らし、Top-1の精度は他の方法よりも4.6%高い。
論文 参考訳(メタデータ) (2020-07-29T23:17:48Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。