論文の概要: ModSec-AdvLearn: Countering Adversarial SQL Injections with Robust Machine Learning
- arxiv url: http://arxiv.org/abs/2308.04964v3
- Date: Fri, 29 Nov 2024 16:33:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:16:43.530194
- Title: ModSec-AdvLearn: Countering Adversarial SQL Injections with Robust Machine Learning
- Title(参考訳): ModSec-AdvLearn:ロバスト機械学習による逆SQLインジェクション対策
- Authors: Biagio Montaruli, Giuseppe Floris, Christian Scano, Luca Demetrio, Andrea Valenza, Luca Compagna, Davide Ariu, Luca Piras, Davide Balzarotti, Battista Biggio,
- Abstract要約: Core Rule Set(CRS)は、よく知られたWeb攻撃パターンを検出するために設計されたルールセットである。
手動CRS構成は、検出と誤警報率の間の準最適トレードオフをもたらす。
機械学習を用いて、重みと組み合わされるルールの集合の選択を自動化することを提案する。
我々のアプローチはModSec-AdvLearnと呼ばれ、(i)検出率を30%まで引き上げると同時に、無視可能な誤報率を維持し、CRSルールの最大50%を破棄することができる。
- 参考スコア(独自算出の注目度): 14.392409275321528
- License:
- Abstract: Many Web Application Firewalls (WAFs) leverage the OWASP Core Rule Set (CRS) to block incoming malicious requests. The CRS consists of different sets of rules designed by domain experts to detect well-known web attack patterns. Both the set of rules to be used and the weights used to combine them are manually defined, yielding four different default configurations of the CRS. In this work, we focus on the detection of SQL injection (SQLi) attacks, and show that the manual configurations of the CRS typically yield a suboptimal trade-off between detection and false alarm rates. Furthermore, we show that these configurations are not robust to adversarial SQLi attacks, i.e., carefully-crafted attacks that iteratively refine the malicious SQLi payload by querying the target WAF to bypass detection. To overcome these limitations, we propose (i) using machine learning to automate the selection of the set of rules to be combined along with their weights, i.e., customizing the CRS configuration based on the monitored web services; and (ii) leveraging adversarial training to significantly improve its robustness to adversarial SQLi manipulations. Our experiments, conducted using the well-known open-source ModSecurity WAF equipped with the CRS rules, show that our approach, named ModSec-AdvLearn, can (i) increase the detection rate up to 30%, while retaining negligible false alarm rates and discarding up to 50% of the CRS rules; and (ii) improve robustness against adversarial SQLi attacks up to 85%, marking a significant stride toward designing more effective and robust WAFs. We release our open-source code at https://github.com/pralab/modsec-advlearn.
- Abstract(参考訳): 多くのWebアプリケーションファイアウォール(WAF)はOWASP Core Rule Set(CRS)を利用して、入ってくる悪意のあるリクエストをブロックします。
CRSは、よく知られたWeb攻撃パターンを検出するために、ドメインの専門家によって設計された異なるルールセットで構成されている。
使用するルールセットとそれらを組み合わせるために使用するウェイトの両方が手動で定義され、CRSの4つのデフォルト設定が生成される。
本研究では,SQLインジェクション(SQLi)攻撃の検出に焦点をあて,CRSの手動構成が検出と偽アラーム率の中間的トレードオフをもたらすことを示す。
さらに、これらの構成は、敵のSQLi攻撃、すなわち、ターゲットのWAFをバイパス検出にクエリすることで、悪意のあるSQLiペイロードを反復的に洗練する慎重に構築された攻撃に対して堅牢ではないことを示す。
これらの制限を克服するために,我々は提案する
i) 機械学習を用いて、監視対象のWebサービスに基づいてCRS設定をカスタマイズし、その重みと組み合わされるルールの集合の選択を自動化する。
二 敵のSQLi操作に対する堅牢性を大幅に向上させるために敵のトレーニングを活用すること。
CRSルールを組み込んだオープンソースのModSecurity WAFを用いて実験を行ったところ,ModSec-AdvLearnという名のアプローチが可能であることがわかった。
i)検出率を30%まで引き上げるとともに、無視可能な誤報率を維持し、CRS規則の最大50%を破棄する。
(II)敵SQLi攻撃に対する堅牢性は最大85%向上し、より効果的で堅牢なWAFの設計に向けた大きな一歩となった。
オープンソースコードはhttps://github.com/pralab/modsec-advlearn.comで公開しています。
関連論文リスト
- Enhancing SQL Injection Detection and Prevention Using Generative Models [4.424836140281847]
本稿では,SQLiの検出・防止機構を強化するために生成モデルを活用する革新的な手法を提案する。
変分オートエンコーダ(VAE)、条件付きワッサースタインGAN、グラディエントペナルティ(CWGAN-GP)、U-Netを組み込むことで、機械学習モデルのトレーニングデータセットを増強するために合成sqlクエリが生成される。
論文 参考訳(メタデータ) (2025-02-07T09:43:43Z) - Red Pill and Blue Pill: Controllable Website Fingerprinting Defense via Dynamic Backdoor Learning [93.44927301021688]
Webサイト指紋(WF)攻撃は、訪問するWebページを特定するために、ユーザーのコミュニケーションを秘密裏に監視する。
既存のWFディフェンスは、ユニークなトラフィックパターンを乱すことで攻撃者の精度を低下させようとする。
バックドア学習に基づく新しい防衛視点である制御可能なWebサイトフィンガープリントディフェンス(CWFD)を紹介した。
論文 参考訳(メタデータ) (2024-12-16T06:12:56Z) - Evaluating and Improving the Robustness of Security Attack Detectors Generated by LLMs [6.936401700600395]
大規模言語モデル(LLM)は、セキュリティ要件を実装するアタック検出器などの関数を生成するために、ソフトウェア開発でますます使われている。
これは、LLMが既存の攻撃に関する知識を欠いていることと、生成されたコードが実際の使用シナリオで評価されていないことによる可能性が高い。
本稿では,LLMパイプラインにRAG(Retrieval Augmented Generation)とSelf-Rankingを統合した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-27T10:48:37Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - ModSec-Learn: Boosting ModSecurity with Machine Learning [14.392409275321528]
ModSecurityは、標準のオープンソースWebアプリケーションファイアウォール(WAF)として広く認識されている。
コアルールセット(CRS)ルールを入力として使用する機械学習モデルを提案する。
ModSec-Learnは、予測にそれぞれのCRSルールのコントリビューションをチューニングできるため、Webアプリケーションに対する重大度レベルを保護できる。
論文 参考訳(メタデータ) (2024-06-19T13:32:47Z) - Dissecting Adversarial Robustness of Multimodal LM Agents [70.2077308846307]
我々は、VisualWebArena上に現実的な脅威モデルを用いて、200の敵タスクと評価スクリプトを手動で作成する。
我々は,クロボックスフロンティアLMを用いた最新のエージェントを,リフレクションやツリーサーチを行うエージェントを含む,壊すことに成功している。
AREを使用して、新しいコンポーネントの追加に伴うロバスト性の変化を厳格に評価しています。
論文 参考訳(メタデータ) (2024-06-18T17:32:48Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - An Adversarial Attack Analysis on Malicious Advertisement URL Detection
Framework [22.259444589459513]
悪意のある広告URLは、サイバー攻撃の源泉であるため、セキュリティ上のリスクをもたらす。
既存の悪意のあるURL検出技術は制限されており、見えない機能やテストデータの一般化を扱うことができる。
本研究では,新しい語彙・ウェブスクラップ機能群を抽出し,機械学習技術を用いて不正広告URL検出システムを構築する。
論文 参考訳(メタデータ) (2022-04-27T20:06:22Z) - Robust and Verifiable Information Embedding Attacks to Deep Neural
Networks via Error-Correcting Codes [81.85509264573948]
ディープラーニングの時代、ユーザは、サードパーティの機械学習ツールを使用して、ディープニューラルネットワーク(DNN)分類器をトレーニングすることが多い。
情報埋め込み攻撃では、攻撃者は悪意のあるサードパーティの機械学習ツールを提供する。
本研究では,一般的なポストプロセッシング手法に対して検証可能で堅牢な情報埋め込み攻撃を設計することを目的とする。
論文 参考訳(メタデータ) (2020-10-26T17:42:42Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。