論文の概要: Evaluating and Improving Adversarial Robustness of Machine
Learning-Based Network Intrusion Detectors
- arxiv url: http://arxiv.org/abs/2005.07519v4
- Date: Tue, 8 Jun 2021 07:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:45:43.341842
- Title: Evaluating and Improving Adversarial Robustness of Machine
Learning-Based Network Intrusion Detectors
- Title(参考訳): 機械学習によるネットワーク侵入検知器の逆ロバスト性評価と改善
- Authors: Dongqi Han, Zhiliang Wang, Ying Zhong, Wenqi Chen, Jiahai Yang,
Shuqiang Lu, Xingang Shi, Xia Yin
- Abstract要約: 本研究では,ML ベースの NIDS のロバスト性を評価するため,グレー/ブラックボックスのトラフィック空間攻撃に関する最初の系統的研究を行った。
私たちの仕事は、以下の点で以前のものより優れています。
また,システムロバスト性を改善するために,敵攻撃に対する防御策を提案する。
- 参考スコア(独自算出の注目度): 21.86766733460335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML), especially deep learning (DL) techniques have been
increasingly used in anomaly-based network intrusion detection systems (NIDS).
However, ML/DL has shown to be extremely vulnerable to adversarial attacks,
especially in such security-sensitive systems. Many adversarial attacks have
been proposed to evaluate the robustness of ML-based NIDSs. Unfortunately,
existing attacks mostly focused on feature-space and/or white-box attacks,
which make impractical assumptions in real-world scenarios, leaving the study
on practical gray/black-box attacks largely unexplored.
To bridge this gap, we conduct the first systematic study of the
gray/black-box traffic-space adversarial attacks to evaluate the robustness of
ML-based NIDSs. Our work outperforms previous ones in the following aspects:
(i) practical-the proposed attack can automatically mutate original traffic
with extremely limited knowledge and affordable overhead while preserving its
functionality; (ii) generic-the proposed attack is effective for evaluating the
robustness of various NIDSs using diverse ML/DL models and non-payload-based
features; (iii) explainable-we propose an explanation method for the fragile
robustness of ML-based NIDSs. Based on this, we also propose a defense scheme
against adversarial attacks to improve system robustness. We extensively
evaluate the robustness of various NIDSs using diverse feature sets and ML/DL
models. Experimental results show our attack is effective (e.g., >97% evasion
rate in half cases for Kitsune, a state-of-the-art NIDS) with affordable
execution cost and the proposed defense method can effectively mitigate such
attacks (evasion rate is reduced by >50% in most cases).
- Abstract(参考訳): 機械学習(ML)、特にディープラーニング(DL)技術は、異常に基づくネットワーク侵入検知システム(NIDS)でますます使われている。
しかし、ML/DLは、特にこのようなセキュリティに敏感なシステムにおいて、敵攻撃に対して極めて脆弱であることが示されている。
MLベースのNIDSの堅牢性を評価するために、多くの敵攻撃が提案されている。
残念なことに、既存の攻撃は主に機能空間および/またはホワイトボックス攻撃に焦点を当てており、現実のシナリオでは実用的でない前提となっている。
このギャップを埋めるため,我々は,mlベースのnidssのロバスト性を評価するために,灰色/黒色ボックスのトラヒックスペース攻撃を初めて体系的に検討した。
私たちの仕事は、以下の点で以前のものより優れています。
一 提案した攻撃は、その機能を維持しつつ、極めて限られた知識と手頃なオーバーヘッドで、自動的に元のトラフィックを変更できる。
(II)汎用攻撃は多様なML/DLモデルと非負荷型特徴を用いた各種NIDSのロバスト性を評価するのに有効である。
3) ML ベースの NIDS の脆弱なロバスト性の説明法を提案する。
また,システムロバスト性を改善するために,敵攻撃に対する防御策を提案する。
多様な特徴集合とML/DLモデルを用いて,様々なNIDSのロバスト性を評価する。
実験結果から,本攻撃は手頃な実行コストで効果的である(半数のケースでは97%の回避率,最先端のnid)ことを示し,提案手法は効果的に攻撃を軽減できる(ほとんどの場合,脱出率が50%以上減少する)。
関連論文リスト
- Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Enhancing ML-Based DoS Attack Detection Through Combinatorial Fusion
Analysis [2.7973964073307265]
サービス拒否(DoS)攻撃の緩和は、オンラインサービスのセキュリティと可用性にとって不可欠である。
先進的なアルゴリズムを用いて複数のMLモデルを組み合わせた,革新的な融合法を提案する。
本研究は,DoS攻撃の検出を改良し,防御機構の強化に寄与する手法の可能性を強調した。
論文 参考訳(メタデータ) (2023-10-02T02:21:48Z) - Unveiling Vulnerabilities in Interpretable Deep Learning Systems with
Query-Efficient Black-box Attacks [16.13790238416691]
解釈可能なディープラーニングシステム(IDLS)は、システムの透明性と説明性を高めるために設計されている。
本稿では,ターゲットモデルとその解釈モデルに関する事前知識を必要としない新規な微生物遺伝アルゴリズムによるIDLSに対するブラックボックス攻撃を提案する。
論文 参考訳(メタデータ) (2023-07-21T21:09:54Z) - Adversarial Evasion Attacks Practicality in Networks: Testing the Impact
of Dynamic Learning [4.822598110892847]
敵攻撃は、MLモデルを騙して欠陥予測を生成することを目的としている。
連続的な再訓練は、敵の訓練なしでも、敵の攻撃の効果を減らすことができる。
我々の目標は、この領域における研究と現実の実践の間に大きなギャップがあることを強調することです。
論文 参考訳(メタデータ) (2023-06-08T18:32:08Z) - Revisiting DeepFool: generalization and improvement [17.714671419826715]
我々は,有効性と計算効率のバランスを崩す新たな敵攻撃群を導入する。
提案手法は,大規模モデルのロバスト性の評価にも適している。
論文 参考訳(メタデータ) (2023-03-22T11:49:35Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Universal Adversarial Attacks on Neural Networks for Power Allocation in
a Massive MIMO System [60.46526086158021]
我々は,White-box や Black-box 攻撃として,UAP (Universal Adversarial Perturbation) 工法を提案する。
その結果, 敵の成功率は最大60%, 40%の確率で達成できることがわかった。
提案されたUAPベースの攻撃は、古典的なホワイトボックス攻撃に比べて実用的で現実的なアプローチである。
論文 参考訳(メタデータ) (2021-10-10T08:21:03Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。