論文の概要: Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System
- arxiv url: http://arxiv.org/abs/2310.03334v2
- Date: Sat, 7 Oct 2023 17:44:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 19:32:43.443889
- Title: Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System
- Title(参考訳): リアルタイム深層学習に基づくネットワーク侵入検知システムにおけるヒューリスティック防御手法を用いた非目標ホワイトボックス攻撃
- Authors: Khushnaseeb Roshan, Aasim Zafar, Sheikh Burhan Ul Haque
- Abstract要約: Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Network Intrusion Detection System (NIDS) is a key component in securing the
computer network from various cyber security threats and network attacks.
However, consider an unfortunate situation where the NIDS is itself attacked
and vulnerable more specifically, we can say, How to defend the defender?. In
Adversarial Machine Learning (AML), the malicious actors aim to fool the
Machine Learning (ML) and Deep Learning (DL) models to produce incorrect
predictions with intentionally crafted adversarial examples. These adversarial
perturbed examples have become the biggest vulnerability of ML and DL based
systems and are major obstacles to their adoption in real-time and
mission-critical applications such as NIDS. AML is an emerging research domain,
and it has become a necessity for the in-depth study of adversarial attacks and
their defence strategies to safeguard the computer network from various cyber
security threads. In this research work, we aim to cover important aspects
related to NIDS, adversarial attacks and its defence mechanism to increase the
robustness of the ML and DL based NIDS. We implemented four powerful
adversarial attack techniques, namely, Fast Gradient Sign Method (FGSM),
Jacobian Saliency Map Attack (JSMA), Projected Gradient Descent (PGD) and
Carlini & Wagner (C&W) in NIDS. We analyzed its performance in terms of various
performance metrics in detail. Furthermore, the three heuristics defence
strategies, i.e., Adversarial Training (AT), Gaussian Data Augmentation (GDA)
and High Confidence (HC), are implemented to improve the NIDS robustness under
adversarial attack situations. The complete workflow is demonstrated in
real-time network with data packet flow. This research work provides the
overall background for the researchers interested in AML and its implementation
from a computer network security point of view.
- Abstract(参考訳): ネットワーク侵入検知システム(NIDS)は、様々なサイバーセキュリティ脅威やネットワーク攻撃からコンピュータネットワークを保護するための重要なコンポーネントである。
しかし、NIDS自体が攻撃され、より具体的に脆弱である不運な状況を考えてみましょう。
.
Adversarial Machine Learning (AML)では、悪意あるアクターは機械学習(ML)とディープラーニング(DL)モデルを騙して、意図的な敵の例で誤った予測を生成する。
これらの逆の摂動例は、MLとDLベースのシステムの最大の脆弱性となり、NIDSのようなリアルタイムおよびミッションクリティカルなアプリケーションで採用する上で大きな障害となっている。
AMLは新たな研究領域であり、様々なサイバーセキュリティスレッドからコンピュータネットワークを保護するために、敵攻撃とその防衛戦略の詳細な研究が必要である。
本研究は, NIDS, 敵攻撃, 防衛機構に関する重要な側面を網羅し, ML と DL をベースとした NIDS の堅牢性を高めることを目的とする。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
さまざまなパフォーマンスメトリクスの観点から、パフォーマンスを詳細に分析しました。
さらに、敵の攻撃状況下でのNIDS堅牢性を改善するため、3つのヒューリスティックス防衛戦略(AT)、GDA(Gaussian Data Augmentation)、HC(High Confidence)が実施されている。
完全なワークフローは、データパケットフローを伴うリアルタイムネットワークで実証される。
この研究は、コンピュータネットワークのセキュリティの観点から、AMLとその実装に関心のある研究者に、全体的な背景を提供する。
関連論文リスト
- XFedHunter: An Explainable Federated Learning Framework for Advanced
Persistent Threat Detection in SDN [0.0]
この研究は、Software-Defined Networking (SDN)におけるAPT検出のための説明可能なフェデレート学習フレームワークであるXFedHunterを提案する。
XFedHunterでは、悪意のある事象を効果的に明らかにするために、グラフニューラルネットワーク(GNN)とディープラーニングモデルが使用される。
NF-ToN-IoTとDARPA TCE3データセットの実験結果は、我々のフレームワークがMLベースのシステムの信頼性と説明責任を高めることを示唆している。
論文 参考訳(メタデータ) (2023-09-15T15:44:09Z) - SoK: Realistic Adversarial Attacks and Defenses for Intelligent Network
Intrusion Detection [0.0]
本稿では,現実的な実例を生み出すことのできる,最先端の対人学習アプローチの統合と要約を行う。
これは、逆例が現実的であるために必要な基本的性質を定義する。
研究者が将来の実験が実際の通信ネットワークに適切であることを確実にするためのガイドラインを提供する。
論文 参考訳(メタデータ) (2023-08-13T17:23:36Z) - A Novel Deep Learning based Model to Defend Network Intrusion Detection
System against Adversarial Attacks [0.0]
本研究の目的は,強力な敵攻撃アルゴリズムとその防衛手法をDLベースNIDS上で研究することである。
防衛法としては, NIDSモデルの堅牢性を高めるために, 対人訓練を用いる。
その結果,1) 敵陣攻撃前, 2) 敵陣攻撃後, 3) 敵陣防御後の3段階にまとめられた。
論文 参考訳(メタデータ) (2023-07-31T18:48:39Z) - Adversarial Evasion Attacks Practicality in Networks: Testing the Impact of Dynamic Learning [1.6574413179773757]
敵攻撃は、MLモデルを騙して欠陥予測を生成することを目的としている。
敵攻撃はMLベースのNIDSを妥協する。
本実験は, 対人訓練を伴わない継続的再訓練は, 対人攻撃の有効性を低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-08T18:32:08Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。