論文の概要: Are GNNs Worth the Effort for IoT Botnet Detection? A Comparative Study of VAE-GNN vs. ViT-MLP and VAE-MLP Approaches
- arxiv url: http://arxiv.org/abs/2505.17363v1
- Date: Fri, 23 May 2025 00:33:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.747753
- Title: Are GNNs Worth the Effort for IoT Botnet Detection? A Comparative Study of VAE-GNN vs. ViT-MLP and VAE-MLP Approaches
- Title(参考訳): IoTボットネット検出におけるGNNの価値は何か? : VAE-GNN vs. ViT-MLP と VAE-MLP の比較検討
- Authors: Hassan Wasswa, Hussein Abbass, Timothy Lynar,
- Abstract要約: 本研究は,IoTボットネット検出のための4つの最先端ディープラーニングアーキテクチャの有効性を評価する。
バイナリ分類タスクでは、全てのモデルが99.93%以上の精度、精度、F1スコアを達成したが、性能に顕著な違いはなかった。
マルチクラス分類タスクでは,VAE-MLPやViT-MLPに比べ,GNNモデルの方が有意に低い性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the exponential rise in IoT-based botnet attacks, researchers have explored various advanced techniques for both dimensionality reduction and attack detection to enhance IoT security. Among these, Variational Autoencoders (VAE), Vision Transformers (ViT), and Graph Neural Networks (GNN), including Graph Convolutional Networks (GCN) and Graph Attention Networks (GAT), have garnered significant research attention in the domain of attack detection. This study evaluates the effectiveness of four state-of-the-art deep learning architectures for IoT botnet detection: a VAE encoder with a Multi-Layer Perceptron (MLP), a VAE encoder with a GCN, a VAE encoder with a GAT, and a ViT encoder with an MLP. The evaluation is conducted on a widely studied IoT benchmark dataset--the N-BaIoT dataset for both binary and multiclass tasks. For the binary classification task, all models achieved over 99.93% in accuracy, recall, precision, and F1-score, with no notable differences in performance. In contrast, for the multiclass classification task, GNN-based models showed significantly lower performance compared to VAE-MLP and ViT-MLP, with accuracies of 86.42%, 89.46%, 99.72%, and 98.38% for VAE-GCN, VAE-GAT, VAE-MLP, and ViT-MLP, respectively.
- Abstract(参考訳): IoTベースのボットネット攻撃の急増により、研究者たちは、IoTセキュリティを強化するために、次元削減とアタック検出の両方のための、さまざまな高度な技術を模索してきた。
このうち、変分オートエンコーダ(VAE)、ヴィジュアルトランスフォーマー(ViT)、グラフ畳み込みネットワーク(GCN)やグラフ注意ネットワーク(GAT)を含むグラフニューラルネットワーク(GNN)は、攻撃検出の領域において大きな研究の注目を集めている。
本研究は,IoTボットネット検出のための最先端のディープラーニングアーキテクチャとして,マルチ層パーセプトロン(MLP)付きVAEエンコーダ,GCN付きVAEエンコーダ,GAT付きVAEエンコーダ,MPP付きVTエンコーダの4つの有効性を評価する。
評価は、広く研究されているIoTベンチマークデータセット、すなわちバイナリとマルチクラスの両方のタスクのためのN-Ba IoTデータセットに基づいて行われる。
バイナリ分類タスクでは、全てのモデルが99.93%以上の精度、リコール、精度、F1スコアを達成したが、性能に顕著な違いはなかった。
対照的に、GNNベースのモデルは、VAE-GCN、VAE-GAT、VAE-MLP、ViT-MLPのそれぞれで86.42%、89.46%、99.72%、98.38%の精度で、VAE-MLPとViT-MLPと比較して大幅に性能が低下した。
関連論文リスト
- Enhancing IoT-Botnet Detection using Variational Auto-encoder and Cost-Sensitive Learning: A Deep Learning Approach for Imbalanced Datasets [0.0]
本研究では,可変オートエンコーダ(VAE)とコスト感受性学習を活用して,IoTボットネット検出モデルを開発した。
目的は、機械学習モデルでしばしば見逃されるマイノリティクラス攻撃トラフィックインスタンスの検出を強化することである。
論文 参考訳(メタデータ) (2025-04-26T02:04:30Z) - Impact of Latent Space Dimension on IoT Botnet Detection Performance: VAE-Encoder Versus ViT-Encoder [0.0]
本研究は,列車データセットの潜時ベクトル表現を訓練した場合,潜時次元が異なる深層学習分類器の性能に与える影響について検討する。
CSV IoTボットネットトラフィックデータセットを様々な潜在サイズに投影するために、エンコーダコンポーネントが使用される。
論文 参考訳(メタデータ) (2025-04-21T06:15:07Z) - Spatial Gated Multi-Layer Perceptron for Land Use and Land Cover Mapping [20.04300777102243]
視覚変換器(ViT)は近年,CNNと比較してグローバルな文脈情報のモデリングに優れています。
現在の先進多層パーセプトロン(MLP)は、深層CNNとViTの両方に対して実行可能な代替手段を提供することができる。
本稿では,SGU-MLPという学習アルゴリズムを開発し,空間ゲーティングユニット(SGU)を正確な土地利用土地被覆マッピングに効果的に利用した。
論文 参考訳(メタデータ) (2023-08-09T21:39:57Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Boosting Binary Neural Networks via Dynamic Thresholds Learning [21.835748440099586]
我々はDySignを導入し、情報損失を減らし、BNNの代表能力を高める。
DCNNでは、2つのバックボーンに基づくDyBCNNが、ImageNetデータセット上で71.2%と67.4%のトップ1精度を達成した。
ViTsの場合、DyCCTはImageNetデータセット上で完全にバイナライズされたViTsと56.1%のコンボリューショナル埋め込み層の優位性を示す。
論文 参考訳(メタデータ) (2022-11-04T07:18:21Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - A Comparative Analysis of Machine Learning Techniques for IoT Intrusion
Detection [0.0]
本稿では,IoT-23データセットの9つのマルウェアキャプチャにおける教師付き・教師なし・強化学習手法の比較分析を行った。
SVM, Extreme Gradient Boosting (XGBoost), Light Gradient Boosting Machine (LightGBM), isolation Forest (iForest), Local Outlier Factor (LOF), Deep Reinforcement Learning (DRL) model based on a Double Deep Q-Network (DDQN)。
論文 参考訳(メタデータ) (2021-11-25T16:14:54Z) - VOLO: Vision Outlooker for Visual Recognition [148.12522298731807]
視覚変換器 (ViT) はイメージネット分類において自己注意に基づくモデルの可能性を示している。
我々は、新しい展望の展望を導入し、VoLO(Vision Outlooker)と呼ばれる、シンプルで一般的なアーキテクチャを提示する。
グローバルな依存性モデリングを粗いレベルで重視する自己注意とは異なり、展望はより詳細な機能やコンテキストをトークンに効率的にエンコードする。
実験の結果、私たちのVOLOはImageNet-1K分類で87.1%のトップ1の精度を達成しており、これはこの競合ベンチマークで87%以上の精度で最初のモデルである。
論文 参考訳(メタデータ) (2021-06-24T15:46:54Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。