論文の概要: Detect & Reject for Transferability of Black-box Adversarial Attacks
Against Network Intrusion Detection Systems
- arxiv url: http://arxiv.org/abs/2112.12095v1
- Date: Wed, 22 Dec 2021 17:54:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 16:27:40.512365
- Title: Detect & Reject for Transferability of Black-box Adversarial Attacks
Against Network Intrusion Detection Systems
- Title(参考訳): ネットワーク侵入検知システムに対するブラックボックス攻撃の伝達可能性の検出と拒否
- Authors: Islam Debicha, Thibault Debatty, Jean-Michel Dricot, Wim Mees, Tayeb
Kenaza
- Abstract要約: 本稿では,機械学習による侵入検知システムに対する敵ネットワークトラフィックの転送可能性について検討する。
本研究では,機械学習による侵入検知システムに対する対向的ネットワークトラフィックの転送可能性特性の影響を抑えるための防御機構として検出・削除を検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the last decade, the use of Machine Learning techniques in anomaly-based
intrusion detection systems has seen much success. However, recent studies have
shown that Machine learning in general and deep learning specifically are
vulnerable to adversarial attacks where the attacker attempts to fool models by
supplying deceptive input. Research in computer vision, where this
vulnerability was first discovered, has shown that adversarial images designed
to fool a specific model can deceive other machine learning models. In this
paper, we investigate the transferability of adversarial network traffic
against multiple machine learning-based intrusion detection systems.
Furthermore, we analyze the robustness of the ensemble intrusion detection
system, which is notorious for its better accuracy compared to a single model,
against the transferability of adversarial attacks. Finally, we examine Detect
& Reject as a defensive mechanism to limit the effect of the transferability
property of adversarial network traffic against machine learning-based
intrusion detection systems.
- Abstract(参考訳): 過去10年間で、異常に基づく侵入検知システムにおける機械学習技術の使用は成功している。
しかし、近年の研究では、一般的な機械学習と特にディープラーニングは、攻撃者が欺く入力を提供することでモデルを騙そうとする敵の攻撃に対して脆弱であることが示されている。
この脆弱性が最初に発見されたコンピュータビジョンの研究は、特定のモデルを騙すために設計された敵対的イメージが、他の機械学習モデルをだますことができることを示した。
本稿では,複数の機械学習に基づく侵入検知システムに対する,対向ネットワークトラフィックの転送可能性について検討する。
さらに,攻撃の伝達性に対して,単一モデルよりも精度が優れていることで悪名高いアンサンブル侵入検知システムのロバスト性を分析する。
最後に,機械学習に基づく侵入検知システムに対する敵ネットワークトラフィックの移動性の影響を制限するための防御機構として,検出と拒否を検討する。
関連論文リスト
- TAD: Transfer Learning-based Multi-Adversarial Detection of Evasion
Attacks against Network Intrusion Detection Systems [0.7829352305480285]
我々は、侵入検知のための既存の最先端モデルを実装している。
次に、選択した回避攻撃のセットでこれらのモデルを攻撃します。
これらの敵攻撃を検知するために、我々は複数の移動学習に基づく敵検知器を設計、実装する。
論文 参考訳(メタデータ) (2022-10-27T18:02:58Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - A False Sense of Security? Revisiting the State of Machine
Learning-Based Industrial Intrusion Detection [9.924435476552702]
異常に基づく侵入検知は、産業制御システムに対する新規または未知の攻撃を検出することを約束する。
研究は機械学習による自動学習に重点を置いており、検出率は99%以上に達する。
その結果、未知の攻撃を検出できないことが強調され、検出率は3.2%から14.7%に低下した。
論文 参考訳(メタデータ) (2022-05-18T20:17:33Z) - Early Detection of Network Attacks Using Deep Learning [0.0]
ネットワーク侵入検知システム(英: Network Intrusion Detection System、IDS)は、ネットワークトラフィックを観察することによって、不正かつ悪意のない行動を特定するためのツールである。
本稿では,攻撃対象のシステムにダメージを与える前に,ネットワーク攻撃を防止するために,エンド・ツー・エンドの早期侵入検知システムを提案する。
論文 参考訳(メタデータ) (2022-01-27T16:35:37Z) - Launching Adversarial Attacks against Network Intrusion Detection
Systems for IoT [5.077661193116692]
テクノロジーは、セキュリティが後発である利益主導のモノのインターネット市場にシフトしています。
従来の防御アプローチは、既知の攻撃と未知の攻撃の両方を高精度に検出するのに十分ではない。
機械学習による侵入検知システムは、未知の攻撃を高精度に特定することに成功した。
論文 参考訳(メタデータ) (2021-04-26T09:36:29Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - NAttack! Adversarial Attacks to bypass a GAN based classifier trained to
detect Network intrusion [0.3007949058551534]
機械学習の台頭以前、攻撃を示唆するネットワーク異常は、巧妙なルールを用いて検出された。
ネットワーク異常に対する機械学習の進歩により、人間がサイバー防御システムをバイパスする方法を理解することは容易ではない。
本稿では, 分類器を構築し, ネットワークデータの逆例で訓練しても, 敵攻撃を利用でき, システムを破壊することができることを示す。
論文 参考訳(メタデータ) (2020-02-20T01:54:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。