論文の概要: BertRLFuzzer: A BERT and Reinforcement Learning Based Fuzzer
- arxiv url: http://arxiv.org/abs/2305.12534v5
- Date: Thu, 1 Feb 2024 22:10:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 20:28:55.588998
- Title: BertRLFuzzer: A BERT and Reinforcement Learning Based Fuzzer
- Title(参考訳): BertRLFuzzer: BERTと強化学習ベースのファザ
- Authors: Piyush Jha, Joseph Scott, Jaya Sriram Ganeshna, Mudit Singh, Vijay
Ganesh
- Abstract要約: 本稿では,BERT と Reinforcement Learning (RL) ベースのファジィザである BertRLFuzzer を提案する。
BertRLFuzzer は次のように機能する: 一組のシード入力が与えられた場合、ファザーは文法順守および攻撃誘発突然変異操作を行い、候補攻撃ベクトルを生成する。
攻撃開始までの時間(54%)、新たな脆弱性(17件)、攻撃率(4.4%)において、最も近い競合ツールと比較して、大幅な改善が見られた。
- 参考スコア(独自算出の注目度): 8.859671910259244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel tool BertRLFuzzer, a BERT and Reinforcement Learning (RL)
based fuzzer aimed at finding security vulnerabilities for Web applications.
BertRLFuzzer works as follows: given a set of seed inputs, the fuzzer performs
grammar-adhering and attack-provoking mutation operations on them to generate
candidate attack vectors. The key insight of BertRLFuzzer is the use of RL with
a BERT model as an agent to guide the fuzzer to efficiently learn
grammar-adhering and attack-provoking mutation operators. In order to establish
the efficacy of BertRLFuzzer we compare it against a total of 13 black box and
white box fuzzers over a benchmark of 9 victim websites with over 16K LOC. We
observed a significant improvement relative to the nearest competing tool in
terms of time to first attack (54% less), new vulnerabilities found (17 new
vulnerabilities), and attack rate (4.4% more attack vectors generated).
- Abstract(参考訳): 本稿では,BERT と Reinforcement Learning (RL) ベースのファジィザである BertRLFuzzer を提案する。
bertrlfuzzerは次のように機能する: シード入力のセットが与えられたとき、fuzzerは文法的および攻撃的変異操作を実行し、候補攻撃ベクターを生成する。
BertRLFuzzerの重要な洞察は、ファザーを誘導するエージェントとしてBERTモデルを用いたRLを使用して、文法順守と攻撃誘発突然変異演算子を効率的に学習することである。
BertRLFuzzerの有効性を確立するために、合計で13個のブラックボックスとホワイトボックスのファザを、9つの犠牲者ウェブサイトと16KLOCのベンチマークで比較した。
攻撃開始までの時間(54%未満)、新たに発見された17の新しい脆弱性、攻撃速度(攻撃ベクトルが4.4%増加した)といった点で、最も近い競合ツールと比較して大きな改善が見られた。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - CovRL: Fuzzing JavaScript Engines with Coverage-Guided Reinforcement
Learning for LLM-based Mutation [2.5864634852960444]
本稿では,大規模言語モデル(LLM)とカバレッジフィードバックからの強化学習を組み合わせた,CovRL(Coverage-guided Reinforcement Learning)と呼ばれる新しい手法を提案する。
CovRL-Fuzzは、39の既知の脆弱性と11のCVEを含む、最新のJavaScriptエンジンにおける48の実際のセキュリティ関連バグを特定している。
論文 参考訳(メタデータ) (2024-02-19T15:30:40Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - RAT: Reinforcement-Learning-Driven and Adaptive Testing for
Vulnerability Discovery in Web Application Firewalls [1.6903270584134351]
RATは類似の攻撃サンプルをまとめて、攻撃パターンを効率よくバイパスするほとんどすべてのパターンを発見する。
RATは、最も可能性の高いペイロードを通過させることで、平均して33.53%と63.16%の性能を発揮する。
論文 参考訳(メタデータ) (2023-12-13T04:07:29Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - An Embarrassingly Simple Backdoor Attack on Self-supervised Learning [52.28670953101126]
自己教師付き学習(SSL)は、ラベルに頼ることなく、複雑なデータの高品質な表現を学習することができる。
SSLのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-10-13T20:39:21Z) - BAFFLE: Hiding Backdoors in Offline Reinforcement Learning Datasets [31.122826345966065]
強化学習(Reinforcement Learning、RL)は、環境との相互作用中に収集された試行錯誤経験からエージェントに学習させる。
近年、オフラインRLは環境との相互作用を省くため、人気のあるRLパラダイムとなっている。
本稿では,データ(観測値)に摂動を加えるバックドアアタックに焦点を当てる。
オフラインのRLデータセットを汚染することにより、バックドアをRLエージェントに自動的に注入するアプローチであるBaffleを提案する。
論文 参考訳(メタデータ) (2022-10-07T07:56:17Z) - BACKDOORL: Backdoor Attack against Competitive Reinforcement Learning [80.99426477001619]
バックドア攻撃を複数のエージェントを含むより複雑なRLシステムに移行する。
概念実証として、敵のエージェントが被害者エージェントのバックドアを独自のアクションでトリガーできることを実証します。
その結果, バックドアが作動すると, 有効でない場合と比較して, 被害者の勝利率は17%から37%に低下することがわかった。
論文 参考訳(メタデータ) (2021-05-02T23:47:55Z) - DeFuzz: Deep Learning Guided Directed Fuzzing [41.61500799890691]
本稿では,DeFuzzというソフトウェア脆弱性検出のための,ディープラーニング(DL)誘導指向ファズリングを提案する。
DeFuzzには2つの主要なスキームが含まれている。 1) 潜在的に脆弱な機能と位置(脆弱性のあるアドレス)を特定するために、トレーニング済みのDL予測モデルを使用する。
正確には、Bidirectional-LSTM (BiLSTM) を用いて注意語を識別し、その脆弱性はこれらの注意語に関連付けられている。
論文 参考訳(メタデータ) (2020-10-23T03:44:03Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。