論文の概要: Enhancing Network Intrusion Detection Systems: A Multi-Layer Ensemble Approach to Mitigate Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2603.10413v1
- Date: Wed, 11 Mar 2026 04:53:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.785242
- Title: Enhancing Network Intrusion Detection Systems: A Multi-Layer Ensemble Approach to Mitigate Adversarial Attacks
- Title(参考訳): ネットワーク侵入検知システムの強化:敵攻撃軽減のための多層アンサンブルアプローチ
- Authors: Nasim Soltani, Shayan Nejadshamsi, Zakaria Abou El Houda, Raphael Khoury, Kelton A. P. Costa, Tiago H. Falk, Anderson R. Avila,
- Abstract要約: 敵対的な例は、機械学習(ML)アルゴリズムに対する深刻な脅威を表している。
本研究では,ネットワーク侵入検知システムのロバスト性を高めることにより,そのようなリスクを軽減することを目的とする。
- 参考スコア(独自算出の注目度): 10.849171172103198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial examples can represent a serious threat to machine learning (ML) algorithms. If used to manipulate the behaviour of ML-based Network Intrusion Detection Systems (NIDS), they can jeopardize network security. In this work, we aim to mitigate such risks by increasing the robustness of NIDS towards adversarial attacks. To that end, we explore two adversarial methods for generating malicious network traffic. The first method is based on Generative Adversarial Networks (GAN) and the second one is the Fast Gradient Sign Method (FGSM). The adversarial examples generated by these methods are then used to evaluate a novel multilayer defense mechanism, specifically designed to mitigate the vulnerability of ML-based NIDS. Our solution consists of one layer of stacking classifiers and a second layer based on an autoencoder. If the incoming network data are classified as benign by the first layer, the second layer is activated to ensure that the decision made by the stacking classifier is correct. We also incorporated adversarial training to further improve the robustness of our solution. Experiments on two datasets, namely UNSW-NB15 and NSL-KDD, demonstrate that the proposed approach increases resilience to adversarial attacks.
- Abstract(参考訳): 敵対的な例は、機械学習(ML)アルゴリズムに対する深刻な脅威を表している。
MLベースのネットワーク侵入検知システム(NIDS)の動作を操作するために使用すれば、ネットワークセキュリティを危険にさらすことができる。
本研究は、敵攻撃に対するNIDSの堅牢性を高めることにより、このようなリスクを軽減することを目的としている。
そこで我々は,悪質なネットワークトラフィックを生成するための2つの敵手法を探索する。
第1の方法はGAN(Generative Adversarial Networks)に基づいており、第2の方法はFGSM(Fast Gradient Sign Method)である。
これらの手法によって生成された敵の例は、MLベースのNIDSの脆弱性を軽減するために特別に設計された、新しい多層防御機構を評価するために使用される。
我々のソリューションは、スタック化分類器の1層と、オートエンコーダに基づく2層からなる。
入ってくるネットワークデータが第1の層によって良性に分類された場合、第2の層が活性化されて、積み重ね分類器による決定が正しいことを保証する。
また,我々のソリューションの堅牢性をさらに向上するために,敵の訓練も取り入れた。
UNSW-NB15とNSL-KDDという2つのデータセットの実験は、提案手法が敵攻撃に対するレジリエンスを高めることを実証している。
関連論文リスト
- Learning from Few Samples: A Novel Approach for High-Quality Malcode Generation [47.76793060077816]
侵入検知システム(IDS)は,ネットワークセキュリティ防衛において重要な役割を担っている。
検出モデルのトレーニングにおけるIDSの重要な課題は、適切にラベル付けされた悪意のあるサンプルが不足していることである。
本稿では、GAN(Generative Adrial Networks)とLLM(Large Language Models)を統合した、新しい半教師付きフレームワーク textbfGANGRL-LLMを提案する。
論文 参考訳(メタデータ) (2025-08-25T15:55:17Z) - Developing a Transferable Federated Network Intrusion Detection System [10.662159185662796]
本稿では,ネットワークに接続されたデバイスに分散的に配置したディープラーニングによる侵入検知システムを提案する。
我々の目標は、既知の攻撃からの知識を用いて、未知の攻撃に対して、より優れたディープラーニングモデルを装備することである。
提案方式は, 高精度な局所検出率を維持しつつ, 転送性の向上に成功している。
論文 参考訳(メタデータ) (2025-08-12T16:22:29Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - NetSentry: A Deep Learning Approach to Detecting Incipient Large-scale
Network Attacks [9.194664029847019]
ネットワーク侵入検出(NID)における機械学習の原理的利用法を示す。
我々は、Bi-ALSTMをベースとした、おそらく最初のNIDSであるNetSentryを提案する。
XSSやWeb bruteforceなどの攻撃検出率を最大3倍に向上させるとともに、最先端技術よりもF1スコアが33%以上上昇することが実証された。
論文 参考訳(メタデータ) (2022-02-20T17:41:02Z) - Generative Adversarial Network-Driven Detection of Adversarial Tasks in
Mobile Crowdsensing [5.675436513661266]
クラウドセンシングシステムは、不特定かつユビキタスなプロパティの上に構築されるため、さまざまな攻撃に対して脆弱である。
以前の研究では、GANベースの攻撃は実験的に設計された攻撃サンプルよりも重大な破壊力を示すことが示唆されている。
本稿では,GANモデルを統合することにより,知的に設計された不正なセンシングサービス要求を検出することを目的とする。
論文 参考訳(メタデータ) (2022-02-16T00:23:25Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Attentive WaveBlock: Complementarity-enhanced Mutual Networks for
Unsupervised Domain Adaptation in Person Re-identification and Beyond [97.25179345878443]
本稿では,新しい軽量モジュールであるAttentive WaveBlock (AWB)を提案する。
AWBは相互学習の二重ネットワークに統合され、相互学習の相補性を高め、擬似ラベルのノイズをさらに抑えることができる。
実験により, 提案手法は, 複数のUDA人物再識別タスクを大幅に改善し, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-06-11T15:40:40Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Generative Adversarial Trainer: Defense to Adversarial Perturbations
with GAN [13.561553183983774]
本稿では, 生成的対角ネットワークを用いて, ニューラルネットワークを敵の例に頑健にするための新しい手法を提案する。
ジェネレータネットワークは、各画像の勾配を用いて分類器ネットワークを騙し易くする対向摂動を生成する。
我々の対戦型トレーニングフレームワークは、Dropoutのような他の正規化手法よりも効率よくオーバーフィッティングを減らし、性能を向上します。
論文 参考訳(メタデータ) (2017-05-09T15:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。