論文の概要: Adversarial ModSecurity: Countering Adversarial SQL Injections with
Robust Machine Learning
- arxiv url: http://arxiv.org/abs/2308.04964v1
- Date: Wed, 9 Aug 2023 13:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 13:24:01.288470
- Title: Adversarial ModSecurity: Countering Adversarial SQL Injections with
Robust Machine Learning
- Title(参考訳): Adversarial ModSecurity:ロバスト機械学習によるSQLインジェクション対策
- Authors: Biagio Montaruli, Luca Demetrio, Andrea Valenza, Battista Biggio, Luca
Compagna, Davide Balzarotti, Davide Ariu, Luca Piras
- Abstract要約: ModSecurityは、標準のオープンソースWebアプリケーションファイアウォール(WAF)として広く認識されている。
我々は、コアルールセット(CRS)ルールを入力として使用する、AdvModSecという堅牢な機械学習モデルを開発した。
我々の実験によると、AdvModSecは、保護されたWebサービスに向けられたトラフィックに基づいて訓練されており、検出と偽陽性率のトレードオフをより良くする。
- 参考スコア(独自算出の注目度): 16.562530430100235
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: ModSecurity is widely recognized as the standard open-source Web Application
Firewall (WAF), maintained by the OWASP Foundation. It detects malicious
requests by matching them against the Core Rule Set, identifying well-known
attack patterns. Each rule in the CRS is manually assigned a weight, based on
the severity of the corresponding attack, and a request is detected as
malicious if the sum of the weights of the firing rules exceeds a given
threshold. In this work, we show that this simple strategy is largely
ineffective for detecting SQL injection (SQLi) attacks, as it tends to block
many legitimate requests, while also being vulnerable to adversarial SQLi
attacks, i.e., attacks intentionally manipulated to evade detection. To
overcome these issues, we design a robust machine learning model, named
AdvModSec, which uses the CRS rules as input features, and it is trained to
detect adversarial SQLi attacks. Our experiments show that AdvModSec, being
trained on the traffic directed towards the protected web services, achieves a
better trade-off between detection and false positive rates, improving the
detection rate of the vanilla version of ModSecurity with CRS by 21%. Moreover,
our approach is able to improve its adversarial robustness against adversarial
SQLi attacks by 42%, thereby taking a step forward towards building more robust
and trustworthy WAFs.
- Abstract(参考訳): ModSecurityはOWASP Foundationによってメンテナンスされている標準のオープンソースWeb Application Firewall(WAF)として広く認識されている。
悪質なリクエストをCore Rule Setにマッチさせて検出し、よく知られた攻撃パターンを特定する。
CRSの各ルールは、対応する攻撃の重大度に基づいて、手動で重みを割り当て、発射ルールの重みの合計が所定のしきい値を超えた場合、要求を悪意として検出する。
本研究では、この単純な戦略がSQLインジェクション(SQLi)攻撃の検出にはほとんど効果がないことを示す。
これらの問題を克服するために、我々は、CRSルールを入力機能として使用するAdvModSecという堅牢な機械学習モデルを設計し、敵SQLi攻撃を検出するように訓練する。
実験の結果,保護されたWebサービスへのトラフィックをトレーニングしたAdvModSecは,検出と偽陽性率のトレードオフを向上し,CRSによるModSecurityのバニラバージョンの検出率を21%向上させることができた。
さらに,我々のアプローチは,敵のSQLi攻撃に対する敵の堅牢性を42%向上させることで,より堅牢で信頼性の高いWAFの構築を進めることができる。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - ModSec-Learn: Boosting ModSecurity with Machine Learning [14.392409275321528]
ModSecurityは、標準のオープンソースWebアプリケーションファイアウォール(WAF)として広く認識されている。
コアルールセット(CRS)ルールを入力として使用する機械学習モデルを提案する。
ModSec-Learnは、予測にそれぞれのCRSルールのコントリビューションをチューニングできるため、Webアプリケーションに対する重大度レベルを保護できる。
論文 参考訳(メタデータ) (2024-06-19T13:32:47Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - AdvSQLi: Generating Adversarial SQL Injections against Real-world WAF-as-a-service [41.557003808027204]
クラウドコンピューティングの開発に伴い、WAF-as-a-serviceはクラウドへのWAFのデプロイ、構成、更新を容易にするために提案されている。
非常に人気があるにもかかわらず、WAF・アズ・ア・サービス(WAF-as-a-service)のセキュリティ脆弱性はいまだに不明である。
Adviでは、WAFのセキュリティ脆弱性を検査し、理解し、ベンダーが製品をより安全にするのに役立つようにします。
論文 参考訳(メタデータ) (2024-01-05T03:21:29Z) - RAT: Reinforcement-Learning-Driven and Adaptive Testing for
Vulnerability Discovery in Web Application Firewalls [1.6903270584134351]
RATは類似の攻撃サンプルをまとめて、攻撃パターンを効率よくバイパスするほとんどすべてのパターンを発見する。
RATは、最も可能性の高いペイロードを通過させることで、平均して33.53%と63.16%の性能を発揮する。
論文 参考訳(メタデータ) (2023-12-13T04:07:29Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。