論文の概要: ModSec-AdvLearn: Countering Adversarial SQL Injections with Robust Machine Learning
- arxiv url: http://arxiv.org/abs/2308.04964v3
- Date: Fri, 29 Nov 2024 16:33:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:16:43.530194
- Title: ModSec-AdvLearn: Countering Adversarial SQL Injections with Robust Machine Learning
- Title(参考訳): ModSec-AdvLearn:ロバスト機械学習による逆SQLインジェクション対策
- Authors: Biagio Montaruli, Giuseppe Floris, Christian Scano, Luca Demetrio, Andrea Valenza, Luca Compagna, Davide Ariu, Luca Piras, Davide Balzarotti, Battista Biggio,
- Abstract要約: Core Rule Set(CRS)は、よく知られたWeb攻撃パターンを検出するために設計されたルールセットである。
手動CRS構成は、検出と誤警報率の間の準最適トレードオフをもたらす。
機械学習を用いて、重みと組み合わされるルールの集合の選択を自動化することを提案する。
我々のアプローチはModSec-AdvLearnと呼ばれ、(i)検出率を30%まで引き上げると同時に、無視可能な誤報率を維持し、CRSルールの最大50%を破棄することができる。
- 参考スコア(独自算出の注目度): 14.392409275321528
- License:
- Abstract: Many Web Application Firewalls (WAFs) leverage the OWASP Core Rule Set (CRS) to block incoming malicious requests. The CRS consists of different sets of rules designed by domain experts to detect well-known web attack patterns. Both the set of rules to be used and the weights used to combine them are manually defined, yielding four different default configurations of the CRS. In this work, we focus on the detection of SQL injection (SQLi) attacks, and show that the manual configurations of the CRS typically yield a suboptimal trade-off between detection and false alarm rates. Furthermore, we show that these configurations are not robust to adversarial SQLi attacks, i.e., carefully-crafted attacks that iteratively refine the malicious SQLi payload by querying the target WAF to bypass detection. To overcome these limitations, we propose (i) using machine learning to automate the selection of the set of rules to be combined along with their weights, i.e., customizing the CRS configuration based on the monitored web services; and (ii) leveraging adversarial training to significantly improve its robustness to adversarial SQLi manipulations. Our experiments, conducted using the well-known open-source ModSecurity WAF equipped with the CRS rules, show that our approach, named ModSec-AdvLearn, can (i) increase the detection rate up to 30%, while retaining negligible false alarm rates and discarding up to 50% of the CRS rules; and (ii) improve robustness against adversarial SQLi attacks up to 85%, marking a significant stride toward designing more effective and robust WAFs. We release our open-source code at https://github.com/pralab/modsec-advlearn.
- Abstract(参考訳): 多くのWebアプリケーションファイアウォール(WAF)はOWASP Core Rule Set(CRS)を利用して、入ってくる悪意のあるリクエストをブロックします。
CRSは、よく知られたWeb攻撃パターンを検出するために、ドメインの専門家によって設計された異なるルールセットで構成されている。
使用するルールセットとそれらを組み合わせるために使用するウェイトの両方が手動で定義され、CRSの4つのデフォルト設定が生成される。
本研究では,SQLインジェクション(SQLi)攻撃の検出に焦点をあて,CRSの手動構成が検出と偽アラーム率の中間的トレードオフをもたらすことを示す。
さらに、これらの構成は、敵のSQLi攻撃、すなわち、ターゲットのWAFをバイパス検出にクエリすることで、悪意のあるSQLiペイロードを反復的に洗練する慎重に構築された攻撃に対して堅牢ではないことを示す。
これらの制限を克服するために,我々は提案する
i) 機械学習を用いて、監視対象のWebサービスに基づいてCRS設定をカスタマイズし、その重みと組み合わされるルールの集合の選択を自動化する。
二 敵のSQLi操作に対する堅牢性を大幅に向上させるために敵のトレーニングを活用すること。
CRSルールを組み込んだオープンソースのModSecurity WAFを用いて実験を行ったところ,ModSec-AdvLearnという名のアプローチが可能であることがわかった。
i)検出率を30%まで引き上げるとともに、無視可能な誤報率を維持し、CRS規則の最大50%を破棄する。
(II)敵SQLi攻撃に対する堅牢性は最大85%向上し、より効果的で堅牢なWAFの設計に向けた大きな一歩となった。
オープンソースコードはhttps://github.com/pralab/modsec-advlearn.comで公開しています。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - ModSec-Learn: Boosting ModSecurity with Machine Learning [14.392409275321528]
ModSecurityは、標準のオープンソースWebアプリケーションファイアウォール(WAF)として広く認識されている。
コアルールセット(CRS)ルールを入力として使用する機械学習モデルを提案する。
ModSec-Learnは、予測にそれぞれのCRSルールのコントリビューションをチューニングできるため、Webアプリケーションに対する重大度レベルを保護できる。
論文 参考訳(メタデータ) (2024-06-19T13:32:47Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - AdvSQLi: Generating Adversarial SQL Injections against Real-world WAF-as-a-service [41.557003808027204]
クラウドコンピューティングの開発に伴い、WAF-as-a-serviceはクラウドへのWAFのデプロイ、構成、更新を容易にするために提案されている。
非常に人気があるにもかかわらず、WAF・アズ・ア・サービス(WAF-as-a-service)のセキュリティ脆弱性はいまだに不明である。
Adviでは、WAFのセキュリティ脆弱性を検査し、理解し、ベンダーが製品をより安全にするのに役立つようにします。
論文 参考訳(メタデータ) (2024-01-05T03:21:29Z) - RAT: Reinforcement-Learning-Driven and Adaptive Testing for
Vulnerability Discovery in Web Application Firewalls [1.6903270584134351]
RATは類似の攻撃サンプルをまとめて、攻撃パターンを効率よくバイパスするほとんどすべてのパターンを発見する。
RATは、最も可能性の高いペイロードを通過させることで、平均して33.53%と63.16%の性能を発揮する。
論文 参考訳(メタデータ) (2023-12-13T04:07:29Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。