論文の概要: Evolutionary Multi-Task Injection Testing on Web Application Firewalls
- arxiv url: http://arxiv.org/abs/2206.05743v1
- Date: Sun, 12 Jun 2022 14:11:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 14:47:52.267042
- Title: Evolutionary Multi-Task Injection Testing on Web Application Firewalls
- Title(参考訳): Webアプリケーションファイアウォール上での進化的マルチタスクインジェクションテスト
- Authors: Ke Li, Heng Yang, Willem Visser
- Abstract要約: DaNuoYiは自動インジェクションテストツールで、WAFに対する複数のタイプのインジェクション攻撃に対するテストインプットを同時に生成する。
実世界の3つのオープンソースWAFと6種類のインジェクション攻撃について実験を行った。
DaNuoYiは最先端の単一タスクよりも3.8倍と5.78倍の有効なテスト入力(WAFをバイパスする)を生成する。
- 参考スコア(独自算出の注目度): 11.037455973709532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Web application firewall (WAF) plays an integral role nowadays to protect web
applications from various malicious injection attacks such as SQL injection,
XML injection, and PHP injection, to name a few. However, given the evolving
sophistication of injection attacks and the increasing complexity of tuning a
WAF, it is challenging to ensure that the WAF is free of injection
vulnerabilities such that it will block all malicious injection attacks without
wrongly affecting the legitimate message. Automatically testing the WAF is,
therefore, a timely and essential task. In this paper, we propose DaNuoYi, an
automatic injection testing tool that simultaneously generates test inputs for
multiple types of injection attacks on a WAF. Our basic idea derives from the
cross-lingual translation in the natural language processing domain. In
particular, test inputs for different types of injection attacks are
syntactically different but may be semantically similar. Sharing semantic
knowledge across multiple programming languages can thus stimulate the
generation of more sophisticated test inputs and discovering injection
vulnerabilities of the WAF that are otherwise difficult to find. To this end,
in DaNuoYi, we train several injection translation models by using multi-task
learning that translates the test inputs between any pair of injection attacks.
The model is then used by a novel multi-task evolutionary algorithm to
co-evolve test inputs for different types of injection attacks facilitated by a
shared mating pool and domain-specific mutation operators at each generation.
We conduct experiments on three real-world open-source WAFs and six types of
injection attacks, the results reveal that DaNuoYi generates up to 3.8x and
5.78x more valid test inputs (i.e., bypassing the underlying WAF) than its
state-of-the-art single-task counterparts and the context-free grammar-based
injection construction.
- Abstract(参考訳): Webアプリケーションファイアウォール(WAF)は、現在、SQLインジェクション、XMLインジェクション、PHPインジェクションといった様々な悪意のあるインジェクション攻撃からWebアプリケーションを保護するために重要な役割を果たす。
しかしながら、インジェクション攻撃の高度化とwafのチューニングの複雑さの増加を考えると、wafが正当なメッセージに悪影響を与えずにすべての悪意あるインジェクション攻撃をブロックするようなインジェクションの脆弱性がないことを保証するのは困難である。
したがって、WAFの自動テストは、タイムリーで重要なタスクである。
本稿では,WAFに対する複数種類のインジェクション攻撃に対して,同時にテスト入力を生成する自動インジェクションテストツールDaNuoYiを提案する。
我々の基本的な考え方は自然言語処理領域における言語間翻訳に由来する。
特に、異なる種類のインジェクション攻撃に対するテスト入力は構文的に異なるが、意味的に似ている可能性がある。
複数のプログラミング言語でセマンティック知識を共有することで、より洗練されたテストインプットの生成と、それ以外では見つけるのが難しいwafのインジェクション脆弱性の発見が促進される。
この目的のために、DaNuoYiでは、複数のインジェクション変換モデルをマルチタスク学習を用いて訓練し、任意のインジェクションアタック間のテスト入力を変換する。
このモデルは、新しいマルチタスク進化アルゴリズムによって、異なる種類のインジェクション攻撃に対するテスト入力を共有結合プールと各世代におけるドメイン固有の突然変異演算子によって促進するために使用される。
実世界の3つのオープンソースWAFと6種類のインジェクション攻撃実験を行い、DaNuoYiは最先端の単一タスクと文脈自由文法ベースのインジェクション構築よりも3.8倍および5.78倍有効なテストインプット(WAFをバイパスする)を生成することを示した。
関連論文リスト
- Defense Against Prompt Injection Attack by Leveraging Attack Techniques [66.65466992544728]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクで顕著なパフォーマンスを実現している。
LLMが進化を続けるにつれて、新しい脆弱性、特にインジェクション攻撃が発生する。
近年の攻撃手法は, LLMの命令追従能力とデータ内容に注入された命令を識別する能力を活用している。
論文 参考訳(メタデータ) (2024-11-01T09:14:21Z) - UFID: A Unified Framework for Input-level Backdoor Detection on Diffusion Models [19.46962670935554]
拡散モデルはバックドア攻撃に弱い。
UFIDと呼ばれる拡散モデルに基づくブラックボックス入力レベルのバックドア検出フレームワークを提案する。
本手法は,検出効率と実行時間効率において高い性能を実現する。
論文 参考訳(メタデータ) (2024-04-01T13:21:05Z) - Automatic and Universal Prompt Injection Attacks against Large Language
Models [38.694912482525446]
LLM(Large Language Models)は、命令を解釈し、従う能力によって、人間の言語を処理し、生成する際、優れた言語モデルである。
これらの攻撃はアプリケーションを操作して、ユーザの実際の要求から逸脱して、攻撃者のインジェクトされたコンテンツに対応する応答を生成する。
本稿では,プロンプトインジェクション攻撃の目的を理解するための統合フレームワークを導入し,高効率で普遍的なインジェクションデータを生成するための自動勾配ベース手法を提案する。
論文 参考訳(メタデータ) (2024-03-07T23:46:20Z) - Test-Time Backdoor Attacks on Multimodal Large Language Models [41.601029747738394]
マルチモーダル大規模言語モデル(MLLM)に対するテスト時間バックドア攻撃であるAnyDoorを提案する。
AnyDoorは、普遍的な敵攻撃で使用される同様のテクニックを採用しているが、有害な効果のセットアップとアクティベーションのタイミングを分離する能力によって、自分自身を区別している。
論文 参考訳(メタデータ) (2024-02-13T16:28:28Z) - RAT: Reinforcement-Learning-Driven and Adaptive Testing for
Vulnerability Discovery in Web Application Firewalls [1.6903270584134351]
RATは類似の攻撃サンプルをまとめて、攻撃パターンを効率よくバイパスするほとんどすべてのパターンを発見する。
RATは、最も可能性の高いペイロードを通過させることで、平均して33.53%と63.16%の性能を発揮する。
論文 参考訳(メタデータ) (2023-12-13T04:07:29Z) - Maatphor: Automated Variant Analysis for Prompt Injection Attacks [7.93367270029538]
現在のプロンプトインジェクション技術に対する防御のベストプラクティスは、システムにガードレールを追加することである。
本稿では,既知のプロンプトインジェクション攻撃の自動変種解析において,ディフェンダーを支援するツールを提案する。
論文 参考訳(メタデータ) (2023-12-12T14:22:20Z) - Instruct2Attack: Language-Guided Semantic Adversarial Attacks [76.83548867066561]
Instruct2Attack (I2A) は、自由形式の言語命令に従って意味のある摂動を生成する言語誘導セマンティックアタックである。
我々は最先端の潜伏拡散モデルを用いて、逆拡散過程を逆ガイドし、入力画像とテキスト命令に条件付けされた逆潜伏符号を探索する。
I2Aは、強い敵の防御の下でも最先端のディープニューラルネットワークを破ることができることを示す。
論文 参考訳(メタデータ) (2023-11-27T05:35:49Z) - Formalizing and Benchmarking Prompt Injection Attacks and Defenses [59.57908526441172]
本稿では,迅速なインジェクション攻撃を形式化するフレームワークを提案する。
フレームワークに基づいて、既存のものを組み合わせることで、新たな攻撃を設計します。
我々の研究は、将来のプロンプトインジェクション攻撃と防御を定量的に評価するための共通のベンチマークを提供する。
論文 参考訳(メタデータ) (2023-10-19T15:12:09Z) - Backdoor Learning on Sequence to Sequence Models [94.23904400441957]
本稿では,シークエンス・ツー・シークエンス(seq2seq)モデルがバックドア攻撃に対して脆弱かどうかを検討する。
具体的には、データセットの0.2%のサンプルを注入するだけで、Seq2seqモデルに指定されたキーワードと文全体を生成することができる。
機械翻訳とテキスト要約に関する大規模な実験を行い、提案手法が複数のデータセットやモデルに対して90%以上の攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2023-05-03T20:31:13Z) - Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.59965356276387]
本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。
我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。
また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
論文 参考訳(メタデータ) (2021-05-26T08:54:19Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。