論文の概要: Adversarial ModSecurity: Countering Adversarial SQL Injections with
Robust Machine Learning
- arxiv url: http://arxiv.org/abs/2308.04964v1
- Date: Wed, 9 Aug 2023 13:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 13:24:01.288470
- Title: Adversarial ModSecurity: Countering Adversarial SQL Injections with
Robust Machine Learning
- Title(参考訳): Adversarial ModSecurity:ロバスト機械学習によるSQLインジェクション対策
- Authors: Biagio Montaruli, Luca Demetrio, Andrea Valenza, Battista Biggio, Luca
Compagna, Davide Balzarotti, Davide Ariu, Luca Piras
- Abstract要約: ModSecurityは、標準のオープンソースWebアプリケーションファイアウォール(WAF)として広く認識されている。
我々は、コアルールセット(CRS)ルールを入力として使用する、AdvModSecという堅牢な機械学習モデルを開発した。
我々の実験によると、AdvModSecは、保護されたWebサービスに向けられたトラフィックに基づいて訓練されており、検出と偽陽性率のトレードオフをより良くする。
- 参考スコア(独自算出の注目度): 16.562530430100235
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: ModSecurity is widely recognized as the standard open-source Web Application
Firewall (WAF), maintained by the OWASP Foundation. It detects malicious
requests by matching them against the Core Rule Set, identifying well-known
attack patterns. Each rule in the CRS is manually assigned a weight, based on
the severity of the corresponding attack, and a request is detected as
malicious if the sum of the weights of the firing rules exceeds a given
threshold. In this work, we show that this simple strategy is largely
ineffective for detecting SQL injection (SQLi) attacks, as it tends to block
many legitimate requests, while also being vulnerable to adversarial SQLi
attacks, i.e., attacks intentionally manipulated to evade detection. To
overcome these issues, we design a robust machine learning model, named
AdvModSec, which uses the CRS rules as input features, and it is trained to
detect adversarial SQLi attacks. Our experiments show that AdvModSec, being
trained on the traffic directed towards the protected web services, achieves a
better trade-off between detection and false positive rates, improving the
detection rate of the vanilla version of ModSecurity with CRS by 21%. Moreover,
our approach is able to improve its adversarial robustness against adversarial
SQLi attacks by 42%, thereby taking a step forward towards building more robust
and trustworthy WAFs.
- Abstract(参考訳): ModSecurityはOWASP Foundationによってメンテナンスされている標準のオープンソースWeb Application Firewall(WAF)として広く認識されている。
悪質なリクエストをCore Rule Setにマッチさせて検出し、よく知られた攻撃パターンを特定する。
CRSの各ルールは、対応する攻撃の重大度に基づいて、手動で重みを割り当て、発射ルールの重みの合計が所定のしきい値を超えた場合、要求を悪意として検出する。
本研究では、この単純な戦略がSQLインジェクション(SQLi)攻撃の検出にはほとんど効果がないことを示す。
これらの問題を克服するために、我々は、CRSルールを入力機能として使用するAdvModSecという堅牢な機械学習モデルを設計し、敵SQLi攻撃を検出するように訓練する。
実験の結果,保護されたWebサービスへのトラフィックをトレーニングしたAdvModSecは,検出と偽陽性率のトレードオフを向上し,CRSによるModSecurityのバニラバージョンの検出率を21%向上させることができた。
さらに,我々のアプローチは,敵のSQLi攻撃に対する敵の堅牢性を42%向上させることで,より堅牢で信頼性の高いWAFの構築を進めることができる。
関連論文リスト
- AdvSQLi: Generating Adversarial SQL Injections against Real-world WAF-as-a-service [41.557003808027204]
クラウドコンピューティングの開発に伴い、WAF-as-a-serviceはクラウドへのWAFのデプロイ、構成、更新を容易にするために提案されている。
非常に人気があるにもかかわらず、WAF・アズ・ア・サービス(WAF-as-a-service)のセキュリティ脆弱性はいまだに不明である。
Adviでは、WAFのセキュリティ脆弱性を検査し、理解し、ベンダーが製品をより安全にするのに役立つようにします。
論文 参考訳(メタデータ) (2024-01-05T03:21:29Z) - RAT: Reinforcement-Learning-Driven and Adaptive Testing for
Vulnerability Discovery in Web Application Firewalls [1.6903270584134351]
RATは類似の攻撃サンプルをまとめて、攻撃パターンを効率よくバイパスするほとんどすべてのパターンを発見する。
RATは、最も可能性の高いペイロードを通過させることで、平均して33.53%と63.16%の性能を発揮する。
論文 参考訳(メタデータ) (2023-12-13T04:07:29Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Exploiting Machine Unlearning for Backdoor Attacks in Deep Learning
System [4.9233610638625604]
マシンアンラーニングに基づく新しいブラックボックスバックドア攻撃を提案する。
攻撃者はまず、毒や緩和データを含む慎重に設計されたサンプルでトレーニングセットを強化し、良心のモデルを訓練する。
そして、攻撃者は、モデルの関連するデータの影響を取り除くために、未学習のサンプルに対するリクエストをポストし、徐々に隠れたバックドアを活性化する。
論文 参考訳(メタデータ) (2023-09-12T02:42:39Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Detecting Backdoors in Deep Text Classifiers [43.36440869257781]
本稿では,テキスト分類モデルに対するバックドア攻撃を一般化する,最初の堅牢な防御機構を提案する。
我々の技術は、データ中毒や重毒など、最先端のバックドア攻撃に対する防御に極めて正確です。
論文 参考訳(メタデータ) (2022-10-11T07:48:03Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。