論文の概要: ModSec-Learn: Boosting ModSecurity with Machine Learning
- arxiv url: http://arxiv.org/abs/2406.13547v1
- Date: Wed, 19 Jun 2024 13:32:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 19:33:52.290594
- Title: ModSec-Learn: Boosting ModSecurity with Machine Learning
- Title(参考訳): ModSec-Learn: マシンラーニングによるModSecurityの強化
- Authors: Christian Scano, Giuseppe Floris, Biagio Montaruli, Luca Demetrio, Andrea Valenza, Luca Compagna, Davide Ariu, Luca Piras, Davide Balzarotti, Battista Biggio,
- Abstract要約: ModSecurityは、標準のオープンソースWebアプリケーションファイアウォール(WAF)として広く認識されている。
コアルールセット(CRS)ルールを入力として使用する機械学習モデルを提案する。
ModSec-Learnは、予測にそれぞれのCRSルールのコントリビューションをチューニングできるため、Webアプリケーションに対する重大度レベルを保護できる。
- 参考スコア(独自算出の注目度): 14.392409275321528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ModSecurity is widely recognized as the standard open-source Web Application Firewall (WAF), maintained by the OWASP Foundation. It detects malicious requests by matching them against the Core Rule Set (CRS), identifying well-known attack patterns. Each rule is manually assigned a weight based on the severity of the corresponding attack, and a request is blocked if the sum of the weights of matched rules exceeds a given threshold. However, we argue that this strategy is largely ineffective against web attacks, as detection is only based on heuristics and not customized on the application to protect. In this work, we overcome this issue by proposing a machine-learning model that uses the CRS rules as input features. Through training, ModSec-Learn is able to tune the contribution of each CRS rule to predictions, thus adapting the severity level to the web applications to protect. Our experiments show that ModSec-Learn achieves a significantly better trade-off between detection and false positive rates. Finally, we analyze how sparse regularization can reduce the number of rules that are relevant at inference time, by discarding more than 30% of the CRS rules. We release our open-source code and the dataset at https://github.com/pralab/modsec-learn and https://github.com/pralab/http-traffic-dataset, respectively.
- Abstract(参考訳): ModSecurityはOWASP Foundationによってメンテナンスされている標準のオープンソースWeb Application Firewall(WAF)として広く認識されている。
悪質なリクエストをコアルールセット(CRS)にマッチさせて検出し、よく知られた攻撃パターンを特定する。
各ルールは、対応する攻撃の重大度に基づいて、手動でウェイトを割り当て、マッチしたルールの重みの合計が所定のしきい値を超えた場合、要求はブロックされる。
しかし、検出はヒューリスティックにのみ依存し、保護するアプリケーションにカスタマイズされないため、この戦略はWeb攻撃に対してほとんど効果がないと我々は主張する。
本研究では,CRSルールを入力として使用する機械学習モデルを提案することで,この問題を克服する。
トレーニングを通じてModSec-Learnは、予測に対する各CRSルールのコントリビューションをチューニングできるため、Webアプリケーションに対する重症度レベルを保護できる。
実験の結果,ModSec-Learnは検出と偽陽性率のトレードオフを著しく改善することがわかった。
最後に,CRS規則の30%以上を破棄することにより,スパース正規化が推論時に関係するルールの数を減らせるかを分析する。
オープンソースコードとデータセットは、https://github.com/pralab/modsec-learnとhttps://github.com/pralab/http-traffic-datasetで公開しています。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Malicious URL Detection using optimized Hist Gradient Boosting Classifier based on grid search method [0.0]
悪意のあるウェブサイトが不正な理由で情報を収集する可能性があるため、オンラインプラットフォームで入力されたデータの正確さを信頼することは困難である。
悪意のあるWebサイトが引き起こすリスクを検出するために,機械学習(ML)ベースの手法を用いることを提案する。
使用されるデータセットには、悪意のあるWebサイトデータの1781のレコードと13の機能が含まれている。
論文 参考訳(メタデータ) (2024-06-12T11:16:30Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Can LLMs Follow Simple Rules? [28.73820874333199]
ルール追従言語評価シナリオ(ルール追従言語評価シナリオ、RuLES)は、大規模言語モデルにおけるルール追従能力を測定するためのフレームワークである。
RuLESは14の単純なテキストシナリオで構成され、そこではモデルがユーザと対話しながら様々なルールに従うように指示される。
現在のほとんどのモデルは、単純なテストケースであっても、シナリオルールに従うのに苦労しています。
論文 参考訳(メタデータ) (2023-11-06T08:50:29Z) - Adversarial ModSecurity: Countering Adversarial SQL Injections with
Robust Machine Learning [16.09513503181256]
ModSecurityは、標準のオープンソースWebアプリケーションファイアウォール(WAF)として広く認識されている。
我々は、コアルールセット(CRS)ルールを入力として使用する、AdvModSecという堅牢な機械学習モデルを開発した。
我々の実験によると、AdvModSecは、保護されたWebサービスに向けられたトラフィックに基づいて訓練されており、検出と偽陽性率のトレードオフをより良くする。
論文 参考訳(メタデータ) (2023-08-09T13:58:03Z) - CleanCLIP: Mitigating Data Poisoning Attacks in Multimodal Contrastive
Learning [63.72975421109622]
CleanCLIPは、バックドア攻撃によって引き起こされる学習された刺激的関連を弱める微調整フレームワークである。
CleanCLIPは、マルチモーダル・コントラッシブ・ラーニングに対するバックドア・アタックを根絶しながら、良質な例によるモデル性能を維持している。
論文 参考訳(メタデータ) (2023-03-06T17:48:32Z) - Post-Training Detection of Backdoor Attacks for Two-Class and
Multi-Attack Scenarios [22.22337220509128]
バックドア攻撃(BA)は、ディープニューラルネットワーク分類器に対する新たな脅威である。
本稿では,BPリバースエンジニアリングに基づく検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T22:21:38Z) - Controlling Neural Networks with Rule Representations [48.165658432032636]
本稿では,ルールを深層学習に統合する新しい学習手法を提案する。
DeepCTRLはルールベースの目的と組み合わせて、ルールエンコーダをモデルに組み込む。
ルールの強度に適応するために再トレーニングをする必要はなく、推測すると、ユーザは所望の操作ポイントに基づいてそれを調整できる。
論文 参考訳(メタデータ) (2021-06-14T23:28:56Z) - Intrinsic Certified Robustness of Bagging against Data Poisoning Attacks [75.46678178805382]
emphdata中毒攻撃では、攻撃者は学習した機械学習モデルを破損させるためにいくつかのトレーニング例を変更し、削除し、または挿入する。
データ中毒攻撃に対するバッグングの本質的確固たる堅牢性を証明する。
本手法は, 任意の修正, 削除, 挿入を行う場合, MNIST 上で 911.1% の精度を達成している。
論文 参考訳(メタデータ) (2020-08-11T03:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。