論文の概要: Detect & Reject for Transferability of Black-box Adversarial Attacks
Against Network Intrusion Detection Systems
- arxiv url: http://arxiv.org/abs/2112.12095v1
- Date: Wed, 22 Dec 2021 17:54:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 16:27:40.512365
- Title: Detect & Reject for Transferability of Black-box Adversarial Attacks
Against Network Intrusion Detection Systems
- Title(参考訳): ネットワーク侵入検知システムに対するブラックボックス攻撃の伝達可能性の検出と拒否
- Authors: Islam Debicha, Thibault Debatty, Jean-Michel Dricot, Wim Mees, Tayeb
Kenaza
- Abstract要約: 本稿では,機械学習による侵入検知システムに対する敵ネットワークトラフィックの転送可能性について検討する。
本研究では,機械学習による侵入検知システムに対する対向的ネットワークトラフィックの転送可能性特性の影響を抑えるための防御機構として検出・削除を検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the last decade, the use of Machine Learning techniques in anomaly-based
intrusion detection systems has seen much success. However, recent studies have
shown that Machine learning in general and deep learning specifically are
vulnerable to adversarial attacks where the attacker attempts to fool models by
supplying deceptive input. Research in computer vision, where this
vulnerability was first discovered, has shown that adversarial images designed
to fool a specific model can deceive other machine learning models. In this
paper, we investigate the transferability of adversarial network traffic
against multiple machine learning-based intrusion detection systems.
Furthermore, we analyze the robustness of the ensemble intrusion detection
system, which is notorious for its better accuracy compared to a single model,
against the transferability of adversarial attacks. Finally, we examine Detect
& Reject as a defensive mechanism to limit the effect of the transferability
property of adversarial network traffic against machine learning-based
intrusion detection systems.
- Abstract(参考訳): 過去10年間で、異常に基づく侵入検知システムにおける機械学習技術の使用は成功している。
しかし、近年の研究では、一般的な機械学習と特にディープラーニングは、攻撃者が欺く入力を提供することでモデルを騙そうとする敵の攻撃に対して脆弱であることが示されている。
この脆弱性が最初に発見されたコンピュータビジョンの研究は、特定のモデルを騙すために設計された敵対的イメージが、他の機械学習モデルをだますことができることを示した。
本稿では,複数の機械学習に基づく侵入検知システムに対する,対向ネットワークトラフィックの転送可能性について検討する。
さらに,攻撃の伝達性に対して,単一モデルよりも精度が優れていることで悪名高いアンサンブル侵入検知システムのロバスト性を分析する。
最後に,機械学習に基づく侵入検知システムに対する敵ネットワークトラフィックの移動性の影響を制限するための防御機構として,検出と拒否を検討する。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Adversarial Explainability: Utilizing Explainable Machine Learning in Bypassing IoT Botnet Detection Systems [0.0]
機械学習に基づくボットネット検出は、近年大きな飛躍を遂げている。
機械学習ベースのサイバーセキュリティシステムに対する敵対的な攻撃は、これらのソリューションに重大な脅威をもたらしている。
本稿では,ボットネット検出システムによる検出の回避において,機械学習モデルの説明可能性を利用した新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-09-29T18:20:05Z) - TAD: Transfer Learning-based Multi-Adversarial Detection of Evasion
Attacks against Network Intrusion Detection Systems [0.7829352305480285]
我々は、侵入検知のための既存の最先端モデルを実装している。
次に、選択した回避攻撃のセットでこれらのモデルを攻撃します。
これらの敵攻撃を検知するために、我々は複数の移動学習に基づく敵検知器を設計、実装する。
論文 参考訳(メタデータ) (2022-10-27T18:02:58Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Early Detection of Network Attacks Using Deep Learning [0.0]
ネットワーク侵入検知システム(英: Network Intrusion Detection System、IDS)は、ネットワークトラフィックを観察することによって、不正かつ悪意のない行動を特定するためのツールである。
本稿では,攻撃対象のシステムにダメージを与える前に,ネットワーク攻撃を防止するために,エンド・ツー・エンドの早期侵入検知システムを提案する。
論文 参考訳(メタデータ) (2022-01-27T16:35:37Z) - Launching Adversarial Attacks against Network Intrusion Detection
Systems for IoT [5.077661193116692]
テクノロジーは、セキュリティが後発である利益主導のモノのインターネット市場にシフトしています。
従来の防御アプローチは、既知の攻撃と未知の攻撃の両方を高精度に検出するのに十分ではない。
機械学習による侵入検知システムは、未知の攻撃を高精度に特定することに成功した。
論文 参考訳(メタデータ) (2021-04-26T09:36:29Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - NAttack! Adversarial Attacks to bypass a GAN based classifier trained to
detect Network intrusion [0.3007949058551534]
機械学習の台頭以前、攻撃を示唆するネットワーク異常は、巧妙なルールを用いて検出された。
ネットワーク異常に対する機械学習の進歩により、人間がサイバー防御システムをバイパスする方法を理解することは容易ではない。
本稿では, 分類器を構築し, ネットワークデータの逆例で訓練しても, 敵攻撃を利用でき, システムを破壊することができることを示す。
論文 参考訳(メタデータ) (2020-02-20T01:54:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。