論文の概要: A Simple Framework to Enhance the Adversarial Robustness of Deep
Learning-based Intrusion Detection System
- arxiv url: http://arxiv.org/abs/2312.03245v1
- Date: Wed, 6 Dec 2023 02:33:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 16:18:12.666861
- Title: A Simple Framework to Enhance the Adversarial Robustness of Deep
Learning-based Intrusion Detection System
- Title(参考訳): 深層学習による侵入検知システムの逆ロバスト性を高めるための簡易フレームワーク
- Authors: Xinwei Yuan, Shu Han, Wei Huang, Hongliang Ye, Xianglong Kong and Fan
Zhang
- Abstract要約: 敵攻撃に対するIDSの堅牢性を高める新しいIDSアーキテクチャを提案する。
提案したIDSは、DLベースのIDS、対向型サンプル検出器、MLベースのIDSの3つのコンポーネントから構成される。
本実験では,敵攻撃を受けると,IDSの予測性能が大幅に向上することが確認された。
- 参考スコア(独自算出の注目度): 5.189166936995511
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning based intrusion detection systems (DL-based IDS) have emerged
as one of the best choices for providing security solutions against various
network intrusion attacks. However, due to the emergence and development of
adversarial deep learning technologies, it becomes challenging for the adoption
of DL models into IDS. In this paper, we propose a novel IDS architecture that
can enhance the robustness of IDS against adversarial attacks by combining
conventional machine learning (ML) models and Deep Learning models. The
proposed DLL-IDS consists of three components: DL-based IDS, adversarial
example (AE) detector, and ML-based IDS. We first develop a novel AE detector
based on the local intrinsic dimensionality (LID). Then, we exploit the low
attack transferability between DL models and ML models to find a robust ML
model that can assist us in determining the maliciousness of AEs. If the input
traffic is detected as an AE, the ML-based IDS will predict the maliciousness
of input traffic, otherwise the DL-based IDS will work for the prediction. The
fusion mechanism can leverage the high prediction accuracy of DL models and low
attack transferability between DL models and ML models to improve the
robustness of the whole system. In our experiments, we observe a significant
improvement in the prediction performance of the IDS when subjected to
adversarial attack, achieving high accuracy with low resource consumption.
- Abstract(参考訳): 深層学習に基づく侵入検知システム(DLベースのIDS)は、様々なネットワーク侵入攻撃に対するセキュリティソリューションを提供するための最良の選択肢の1つである。
しかし,敵対的深層学習技術の出現と発展により,idsへのdlモデルの導入が困難になる。
本稿では、従来の機械学習(ML)モデルとディープラーニングモデルを組み合わせることで、敵攻撃に対するIDSの堅牢性を高める新しいIDSアーキテクチャを提案する。
提案したDLL-IDSは、DLベースのIDS、AE検出器、MLベースのIDSの3つのコンポーネントから構成される。
まず,局所固有次元(LID)に基づく新しいAE検出器を開発した。
そこで我々は, DLモデルとMLモデル間の低攻撃伝達性を利用して, AEsの悪質性判定を支援する堅牢なMLモデルを求める。
入力トラフィックがAEとして検出されると、MLベースのIDSは入力トラフィックの悪意を予測する。
融合機構は,DLモデルの高い予測精度と,DLモデルとMLモデル間の攻撃伝達率の低下を利用して,システム全体の堅牢性を向上させる。
実験では,攻撃時のidsの予測性能が大幅に向上し,リソース消費量の少ない高精度化が達成された。
関連論文リスト
- Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - X-CBA: Explainability Aided CatBoosted Anomal-E for Intrusion Detection
System [2.7423984440051896]
Intrusion Detection Systemsにおける機械学習(ML)モデルとディープラーニング(DL)モデルの使用は、不透明な意思決定による信頼の欠如につながっている。
本稿では、グラフニューラルネットワーク(GNN)の構造的利点を活用して、ネットワークトラフィックデータを効率的に処理する新しい説明可能なIDS手法であるX-CBAを提案する。
本手法は、脅威検出の99.47%で高精度に達成し、その分析結果の明確で実用的な説明を提供する。
論文 参考訳(メタデータ) (2024-02-01T18:29:16Z) - Intrusion Detection System with Machine Learning and Multiple Datasets [0.0]
本稿では,機械学習(ML)を利用した拡張侵入検知システム(IDS)について検討する。
最終的に、この改良されたシステムは、非倫理的なハッカーによる攻撃に対抗するために使用できる。
論文 参考訳(メタデータ) (2023-12-04T14:58:19Z) - Reconstruction-based LSTM-Autoencoder for Anomaly-based DDoS Attack
Detection over Multivariate Time-Series Data [6.642599588462097]
DDoS(Distributed Denial-of-Service)攻撃は、ターゲットとするサーバやサービス、あるいはネットワークの通常のトラフィックを破壊しようとする悪意のある試みである。
従来の統計的および浅層機械学習技術は、浅層データと特徴選択に基づいて表面異常を検出することができるが、これらの手法は見えないDDoS攻撃を検出することはできない。
本稿では,LSTM-Autoencoder (LSTM-AE) と名づけられた再構築型異常検出モデルを提案する。
論文 参考訳(メタデータ) (2023-04-21T03:56:03Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - LBDMIDS: LSTM Based Deep Learning Model for Intrusion Detection Systems
for IoT Networks [0.12314765641075436]
本稿では,Long Short Term Memory(LSTM)オートエンコーダと13機能Deep Neural Network(DNN)モデルを開発した。
我々はLSTMのバリエーションであるLSTMと双方向LSTMを積み重ねたNIDSモデルを開発し、UNSW_NB15とBoT-IoTデータセットでそれらの性能を検証した。
論文 参考訳(メタデータ) (2022-06-23T11:34:05Z) - On the Security Risks of AutoML [38.03918108363182]
Neural Architecture Search(NAS)は、与えられたタスクに適したモデルを自動的に検索する、新たな機械学習パラダイムである。
手動で設計したモデルと比較すると、NAS生成モデルは様々な悪意ある攻撃に対して大きな脆弱性を被る傾向にある。
本稿では,セル深さの増大やスキップ接続の抑制など,このような欠点を軽減するための対策の可能性について論じる。
論文 参考訳(メタデータ) (2021-10-12T14:04:15Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。