論文の概要: Robust Anomaly Detection in Network Traffic: Evaluating Machine Learning Models on CICIDS2017
- arxiv url: http://arxiv.org/abs/2506.19877v1
- Date: Mon, 23 Jun 2025 15:31:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.459136
- Title: Robust Anomaly Detection in Network Traffic: Evaluating Machine Learning Models on CICIDS2017
- Title(参考訳): ネットワークトラフィックにおけるロバスト異常検出:CICIDS2017における機械学習モデルの評価
- Authors: Zhaoyang Xu, Yunbo Liu,
- Abstract要約: 筆者らはCICIDS 2017データセット上で, 4つの代表モデルの比較を行った。
SupervisedとCNNは、慣れ親しんだ攻撃に対してほぼ完璧な精度を達成したが、新しい攻撃に対して劇的なリコールの損失を被った。
監視されていないLOFは、誤報の高揚を犠牲にして、適度な全体的な精度と未知の脅威に対する高いリコールを達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying suitable machine learning paradigms for intrusion detection remains critical for building effective and generalizable security solutions. In this study, we present a controlled comparison of four representative models - Multi-Layer Perceptron (MLP), 1D Convolutional Neural Network (CNN), One-Class Support Vector Machine (OCSVM) and Local Outlier Factor (LOF) - on the CICIDS2017 dataset under two scenarios: detecting known attack types and generalizing to previously unseen threats. Our results show that supervised MLP and CNN achieve near-perfect accuracy on familiar attacks but suffer drastic recall drops on novel attacks. Unsupervised LOF attains moderate overall accuracy and high recall on unknown threats at the cost of elevated false alarms, while boundary-based OCSVM balances precision and recall best, demonstrating robust detection across both scenarios. These findings offer practical guidance for selecting IDS models in dynamic network environments.
- Abstract(参考訳): 侵入検知に適した機械学習パラダイムを特定することは、効果的で一般化可能なセキュリティソリューションを構築する上で、依然として不可欠である。
本研究では,CICIDS2017データセット上で,Multi-Layer Perceptron(MLP),1D Convolutional Neural Network(CNN),One-Class Support Vector Machine(OCSVM),Local Outlier Factor(LOF)の4つの代表的なモデルの比較を行った。
以上の結果より,MLPとCNNは近縁な攻撃に対してほぼ完璧な精度を達成できたが,新規攻撃に対して劇的なリコール低下がみられた。
教師なしLOFは、偽アラームの上昇による未知の脅威に対して、適度な全体的な精度と高いリコールを達成する一方、境界ベースのOCSVMは精度とリコールのバランスをとり、両方のシナリオで堅牢な検出を実証する。
これらの知見は動的ネットワーク環境におけるIDSモデル選択のための実用的なガイダンスを提供する。
関連論文リスト
- Adversarial Attacks on Deep Learning-Based False Data Injection Detection in Differential Relays [3.4061238650474666]
本稿では,False Data Injection Attacks (FDIA) に使用される既存のディープラーニングベーススキーム (DLS) を,FDIA(False Data Injection Attacks) としてスマートグリッドで回避できることを示す。
本稿では, DLS 脆弱性を利用したFast Gradient Sign Method を利用した新たな攻撃フレームワークを提案する。
本研究は,DLSに基づくFDIA検出に対する敵対的攻撃による重大な脅威を浮き彫りにし,スマートグリッドにおける堅牢なサイバーセキュリティ対策の必要性を浮き彫りにし,対戦型FDIAに対するモデルロバスト性を高めるための対戦型トレーニングの有効性を示した。
論文 参考訳(メタデータ) (2025-06-24T04:22:26Z) - Robustness of Selected Learning Models under Label-Flipping Attack [1.3812010983144798]
ラベルフリップに基づく敵攻撃を受けた場合、マルウェアデータセット上で訓練された従来の機械学習モデルとディープラーニングモデルを比較した。
敵攻撃に対して試験したモデルのロバスト性は,初期精度とロバスト性の両方を最大限に組み合わせたモデルで広範囲に変動することがわかった。
論文 参考訳(メタデータ) (2025-01-21T22:00:54Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Anomaly Detection in Cybersecurity: Unsupervised, Graph-Based and
Supervised Learning Methods in Adversarial Environments [63.942632088208505]
現在の運用環境に固有ののは、敵対的機械学習の実践である。
本研究では,教師なし学習とグラフに基づく異常検出の可能性を検討する。
我々は,教師付きモデルの訓練時に,現実的な対人訓練機構を組み込んで,対人環境における強力な分類性能を実現する。
論文 参考訳(メタデータ) (2021-05-14T10:05:10Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - RAB: Provable Robustness Against Backdoor Attacks [20.702977915926787]
我々は、一般的な脅威モデル、特にバックドアアタックに対して、機械学習モデルの堅牢性を証明することに重点を置いている。
トレーニングモデルをスムースにし,バックドア攻撃に対する堅牢性を証明するための,最初の堅牢なトレーニングプロセスであるRABを提案する。
我々は、さまざまな機械学習(ML)モデルに対する包括的な実験を行い、バックドア攻撃に対する信頼性の高い堅牢性を示す最初のベンチマークを提供する。
論文 参考訳(メタデータ) (2020-03-19T17:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。