論文の概要: An Adversarial Robustness Benchmark for Enterprise Network Intrusion
Detection
- arxiv url: http://arxiv.org/abs/2402.16912v1
- Date: Sun, 25 Feb 2024 16:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 19:12:58.382885
- Title: An Adversarial Robustness Benchmark for Enterprise Network Intrusion
Detection
- Title(参考訳): エンタープライズネットワーク侵入検知のための逆ロバスト性ベンチマーク
- Authors: Jo\~ao Vitorino, Miguel Silva, Eva Maia, Isabel Pra\c{c}a
- Abstract要約: RF, XGB, LGBM, EBMモデルの定常的, 対角的に訓練されたロバスト性を評価した。
NewCICIDSは、特にXGBとEBMの性能向上に繋がったが、RFとLGBMはHIKARIのサイバー攻撃に対してより堅牢ではなかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As cyber-attacks become more sophisticated, improving the robustness of
Machine Learning (ML) models must be a priority for enterprises of all sizes.
To reliably compare the robustness of different ML models for cyber-attack
detection in enterprise computer networks, they must be evaluated in
standardized conditions. This work presents a methodical adversarial robustness
benchmark of multiple decision tree ensembles with constrained adversarial
examples generated from standard datasets. The robustness of regularly and
adversarially trained RF, XGB, LGBM, and EBM models was evaluated on the
original CICIDS2017 dataset, a corrected version of it designated as NewCICIDS,
and the HIKARI dataset, which contains more recent network traffic. NewCICIDS
led to models with a better performance, especially XGB and EBM, but RF and
LGBM were less robust against the more recent cyber-attacks of HIKARI. Overall,
the robustness of the models to adversarial cyber-attack examples was improved
without their generalization to regular traffic being affected, enabling a
reliable detection of suspicious activity without costly increases of false
alarms.
- Abstract(参考訳): サイバー攻撃が高度化するにつれて、機械学習(ML)モデルの堅牢性の向上は、あらゆる規模の企業にとって最優先事項である。
エンタープライズコンピュータネットワークにおける様々なMLモデルのサイバー攻撃検出の堅牢性を確実に比較するためには、それらを標準化された条件で評価する必要がある。
本研究は,複数の決定木アンサンブルを標準データセットから生成した制約付き逆数例を用いて,方法論的逆数ロバスト性ベンチマークを提案する。
RF, XGB, LGBM, EBMモデルの頑健性は, 従来のCICIDS2017データセット, NewCICIDSと命名された修正版, より最近のネットワークトラフィックを含むHIKARIデータセットで評価された。
NewCICIDSは、特にXGBとEBMの性能向上に繋がったが、RFとLGBMはHIKARIのサイバー攻撃に対してより堅牢ではなかった。
全体として、敵対的なサイバー攻撃例へのモデルの堅牢性は、通常のトラフィックの影響を受けることなく改善され、誤ったアラームをコスト的に増加させることなく、疑わしい行動の信頼できる検出を可能にした。
関連論文リスト
- Reliable Feature Selection for Adversarially Robust Cyber-Attack Detection [0.0]
この研究は、複数のメソッドを組み合わせて複数のネットワークデータセットに適用する機能選択とコンセンサスプロセスを示す。
データ多様性が向上し、最高の時間関連機能とより具体的な機能セットを選択し、敵のトレーニングを実行することで、MLモデルはより逆向きに堅牢な一般化を実現することができた。
論文 参考訳(メタデータ) (2024-04-05T16:01:21Z) - The Effectiveness of Random Forgetting for Robust Generalization [21.163070161951868]
我々は,FOMO(Fordt to Mitigate Overfitting)と呼ばれる新しい学習パラダイムを導入する。
FOMOは、重みのサブセットをランダムに忘れる忘れ相と、一般化可能な特徴の学習を強調する再学習相とを交互に扱う。
実験の結果, FOMOは最良と最終ロバストなテスト精度のギャップを大幅に減らし, 頑健なオーバーフィッティングを緩和することがわかった。
論文 参考訳(メタデータ) (2024-02-18T23:14:40Z) - Advancing DDoS Attack Detection: A Synergistic Approach Using Deep
Residual Neural Networks and Synthetic Oversampling [2.988269372716689]
本稿では,Deep Residual Neural Networks(ResNets)の機能を活用したDDoS攻撃検出の強化手法を提案する。
我々は、良性および悪意のあるデータポイントの表現のバランスをとり、モデルが攻撃を示す複雑なパターンをよりよく識別できるようにする。
実世界のデータセットを用いた実験結果から,従来の手法よりもはるかに優れた99.98%の精度が得られた。
論文 参考訳(メタデータ) (2024-01-06T03:03:52Z) - Model Stealing Attack against Graph Classification with Authenticity,
Uncertainty and Diversity [85.1927483219819]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - CausalAgents: A Robustness Benchmark for Motion Forecasting using Causal
Relationships [8.679073301435265]
既存のデータに摂動を適用することにより、モデルロバスト性の評価と改善のための新しいベンチマークを構築する。
我々はこれらのラベルを使用して、現場から非因果的エージェントを削除することでデータを摂動する。
非因果摂動下では, minADE の相対的な変化は, 原型と比較して25$-$38%である。
論文 参考訳(メタデータ) (2022-07-07T21:28:23Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。