論文の概要: A Quantized VAE-MLP Botnet Detection Model: A Systematic Evaluation of Quantization-Aware Training and Post-Training Quantization Strategies
- arxiv url: http://arxiv.org/abs/2511.03201v1
- Date: Wed, 05 Nov 2025 05:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.342162
- Title: A Quantized VAE-MLP Botnet Detection Model: A Systematic Evaluation of Quantization-Aware Training and Post-Training Quantization Strategies
- Title(参考訳): 量子化VAE-MLPボットネット検出モデル:量子化学習とポストトレーニング量子化戦略の体系的評価
- Authors: Hassan Wasswa, Hussein Abbass, Timothy Lynar,
- Abstract要約: QAT(Quantization-Aware Training)とPTQ(Post-Training Quantization)の2つの広く利用されている量子化戦略は、検出性能、ストレージ効率、推論レイテンシへの影響について評価されている。
結果: PTQは6倍のスピードアップと21倍のサイズの縮小を実現し,QATは3倍のスピードアップと24倍の圧縮を実現し,デバイスレベルのIoTボットネット検出の量子化の実現性を実証した。
- 参考スコア(独自算出の注目度): 2.2940141855172036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In an effort to counter the increasing IoT botnet-based attacks, state-of-the-art deep learning methods have been proposed and have achieved impressive detection accuracy. However, their computational intensity restricts deployment on resource-constrained IoT devices, creating a critical need for lightweight detection models. A common solution to this challenge is model compression via quantization. This study proposes a VAE-MLP model framework where an MLP-based classifier is trained on 8-dimensional latent vectors derived from the high-dimensional train data using the encoder component of a pretrained variational autoencoder (VAE). Two widely used quantization strategies--Quantization-Aware Training (QAT) and Post-Training Quantization (PTQ)--are then systematically evaluated in terms of their impact on detection performance, storage efficiency, and inference latency using two benchmark IoT botnet datasets--N-BaIoT and CICIoT2022. The results revealed that, with respect to detection accuracy, the QAT strategy experienced a more noticeable decline,whereas PTQ incurred only a marginal reduction compared to the original unquantized model. Furthermore, PTQ yielded a 6x speedup and 21x reduction in size, while QAT achieved a 3x speedup and 24x compression, demonstrating the practicality of quantization for device-level IoT botnet detection.
- Abstract(参考訳): IoTボットネットベースの攻撃の増加に対抗するため、最先端のディープラーニング手法が提案され、目覚ましい検出精度を達成した。
しかし、その計算強度はリソース制限されたIoTデバイスへのデプロイメントを制限し、軽量検出モデルにとって重要なニーズを生み出している。
この課題に対する一般的な解決策は、量子化によるモデル圧縮である。
本研究では,事前訓練された変分オートエンコーダ(VAE)のエンコーダ成分を用いて,高次元列車データから導出される8次元潜在ベクトルに対して,MLPに基づく分類器を訓練するVAE-MLPモデルフレームワークを提案する。
QAT(Quantization-Aware Training)とPTQ(Post-Training Quantization)という2つの広く使用されている量子化戦略は、N-BaIoTとCICIoT2022という2つのベンチマークIoTボットネットデータセットを使用して、検出パフォーマンス、ストレージ効率、推論レイテンシへの影響を体系的に評価する。
その結果, 検出精度に関して, QAT 戦略はより顕著な低下を経験し, PTQ は元の未定量モデルに比べて限界値の低下しか生じなかったことがわかった。
さらに、PTQは6倍のスピードアップと21倍のサイズの縮小を実現し、QATは3倍のスピードアップと24倍の圧縮を実現し、デバイスレベルのIoTボットネット検出の量子化の実用性を実証した。
関連論文リスト
- CLASS: A Controller-Centric Layout Synthesizer for Dynamic Quantum Circuits [58.16162138294308]
CLASSは、分散制御システムにおけるコントローラ間通信遅延を低減するために設計された、コントローラ中心のレイアウトシンセサイザーである。
評価の結果、CLASSは通信遅延を最大100%減らし、追加操作数の平均2.10%しか増加しないことがわかった。
論文 参考訳(メタデータ) (2025-09-19T08:11:55Z) - End-to-End On-Device Quantization-Aware Training for LLMs at Inference Cost [53.25965863436039]
量子化対応トレーニング(QAT)は、より原則化されたソリューションを提供するが、バックプロパゲーションに依存しているため、メモリコストは禁じられている。
重み付けとアクティベーション量子化の両方をサポートするゼロオーダー最適化ベースのQATフレームワークであるZeroQATを提案する。
実験の結果、ZeroQATはPTQとQATのベースラインを一貫して上回り、メモリは大幅に削減された。
論文 参考訳(メタデータ) (2025-08-21T01:18:27Z) - Precision Neural Network Quantization via Learnable Adaptive Modules [27.323901068182234]
量子化アウェアトレーニング(QAT)は、モデルサイズを圧縮し、運用効率を向上させるニューラルネットワーク量子化技術である。
本稿では、適応ステップサイズ量子化(ASQ)と呼ばれる、効果的な学習可能な適応型ニューラルネットワーク量子化法を提案する。
論文 参考訳(メタデータ) (2025-04-24T05:46:25Z) - QSViT: A Methodology for Quantizing Spiking Vision Transformers [5.343921650701002]
ビジョントランスフォーマー(ViT)ベースのモデルでは、ビジョンベースのAIタスクにおける最先端のパフォーマンス(精度など)が示されている。
しかし、リソースに制約のある組み込みAIシステムにおいて、その能力を実現することは、その固有の大きなメモリフットプリントのために困難である。
本稿では,SViTモデルを体系的な量子化戦略により圧縮する新しい設計手法であるQSViTを提案する。
論文 参考訳(メタデータ) (2025-04-01T16:34:46Z) - Survey of Quantization Techniques for On-Device Vision-based Crack Detection [5.967661928760498]
構造的健康モニタリング(SHM)は、インフラの安全性と長寿を保証する。
UAVと組み合わせた視覚ベースの亀裂検出は、従来のセンサーベースのSHM手法の限界に対処する。
本研究では、MobileNetV1x0.25とMobileNetV2x0.5の2つの軽量畳み込みニューラルネットワークモデルを評価する。
論文 参考訳(メタデータ) (2025-02-04T12:29:29Z) - EfficientDM: Efficient Quantization-Aware Fine-Tuning of Low-Bit Diffusion Models [21.17675493267517]
ポストトレーニング量子化(PTQ)と量子化学習(QAT)は、拡散モデルを圧縮・加速する2つの主要なアプローチである。
我々は、PTQのような効率でQATレベルの性能を実現するために、EfficientDMと呼ばれる低ビット拡散モデルのためのデータフリーかつパラメータ効率の微調整フレームワークを導入する。
提案手法は, PTQに基づく拡散モデルにおいて, 同様の時間とデータ効率を保ちながら, 性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-10-05T02:51:53Z) - On-Chip Hardware-Aware Quantization for Mixed Precision Neural Networks [52.97107229149988]
エッジデバイス上でハードウェア対応の混合精度量子化を行うOn-Chipハードウェア・アウェア量子化フレームワークを提案する。
このパイプラインは、量子化プロセスが量子化演算子の実際のハードウェア効率を知覚することを可能にする。
精度測定のために,マルチチップシナリオにおける演算子の精度への影響を効果的に推定するMask-Guided Quantization Estimation技術を提案する。
論文 参考訳(メタデータ) (2023-09-05T04:39:34Z) - A White Paper on Neural Network Quantization [20.542729144379223]
本稿では,量子化ノイズがネットワークの性能に与える影響を緩和する最新アルゴリズムを提案する。
我々は,ポストトレーニング量子化(PTQ)と量子化アウェア・トレーニング(QAT)の2つのアルゴリズムについて考察する。
論文 参考訳(メタデータ) (2021-06-15T17:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。