論文の概要: BertRLFuzzer: A BERT and Reinforcement Learning based Fuzzer
- arxiv url: http://arxiv.org/abs/2305.12534v1
- Date: Sun, 21 May 2023 18:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 19:44:40.913887
- Title: BertRLFuzzer: A BERT and Reinforcement Learning based Fuzzer
- Title(参考訳): BertRLFuzzer: BERTと強化学習ベースのファザ
- Authors: Piyush Jha, Joseph Scott, Jaya Sriram Ganeshna, Mudit Singh, Vijay
Ganesh
- Abstract要約: 本稿では,BERT と Reinforcement Learning (RL) ベースのファザである BertRLFuzzer について紹介する。
BertRLFuzzerは次のように機能する: シード入力のリストが与えられた場合、ファザーは文法順守および攻撃誘発突然変異操作を行う。
BERTモデルとRLに基づく学習の組み合わせにより、BertRLFuzzerは効果的で適応的で、使いやすく、自動で、ファジィザとなる。
- 参考スコア(独自算出の注目度): 11.826062059444803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel tool BertRLFuzzer, a BERT and Reinforcement Learning (RL)
based fuzzer aimed at finding security vulnerabilities. BertRLFuzzer works as
follows: given a list of seed inputs, the fuzzer performs grammar-adhering and
attack-provoking mutation operations on them to generate candidate attack
vectors. The key insight of BertRLFuzzer is the combined use of two machine
learning concepts. The first one is the use of semi-supervised learning with
language models (e.g., BERT) that enables BertRLFuzzer to learn (relevant
fragments of) the grammar of a victim application as well as attack patterns,
without requiring the user to specify it explicitly. The second one is the use
of RL with BERT model as an agent to guide the fuzzer to efficiently learn
grammar-adhering and attack-provoking mutation operators. The RL-guided
feedback loop enables BertRLFuzzer to automatically search the space of attack
vectors to exploit the weaknesses of the given victim application without the
need to create labeled training data. Furthermore, these two features together
enable BertRLFuzzer to be extensible, i.e., the user can extend BertRLFuzzer to
a variety of victim applications and attack vectors automatically (i.e.,
without explicitly modifying the fuzzer or providing a grammar).
In order to establish the efficacy of BertRLFuzzer we compare it against a
total of 13 black box and white box fuzzers over a benchmark of 9 victim
websites. We observed a significant improvement in terms of time to first
attack (54% less than the nearest competing tool), time to find all
vulnerabilities (40-60% less than the nearest competing tool), and attack rate
(4.4% more attack vectors generated than the nearest competing tool). Our
experiments show that the combination of the BERT model and RL-based learning
makes BertRLFuzzer an effective, adaptive, easy-to-use, automatic, and
extensible fuzzer.
- Abstract(参考訳): 本稿では,セキュリティ脆弱性の発見を目的とした,bert and reinforcement learning(rl)ベースの新しいツールであるbertrlfuzzerを提案する。
bertrlfuzzerは次のように機能する: シード入力のリストが与えられたとき、fuzzerは文法的および攻撃的変異操作を実行し、候補攻撃ベクターを生成する。
BertRLFuzzerの重要な洞察は、2つの機械学習概念の併用である。
1つ目は、言語モデル(例えばBERT)による半教師付き学習を使用することで、BertRLFuzzerは、ユーザが明示的に指定することなく、被害者のアプリケーションの文法と攻撃パターンを学習(関連する断片)することができる。
第二に、BERTモデルとRLを用いてファジッターを誘導し、文法順守と攻撃誘発突然変異演算子を効率的に学習する。
RL誘導フィードバックループにより、BertRLFuzzerは、ラベル付きトレーニングデータを作成することなく、攻撃ベクトルの空間を自動的に検索して、被害者アプリケーションの弱点を利用することができる。
さらに、これらの2つの機能を組み合わせることで、BertRLFuzzerは拡張可能になり、ユーザーはさまざまな犠牲者アプリケーションに拡張したり、ベクターを自動攻撃したりすることができる。
BertRLFuzzerの有効性を確立するために、9つの犠牲者ウェブサイトのベンチマークで合計13個のブラックボックスとホワイトボックスのファザーを比較した。
攻撃開始までの時間(最も近い競合ツールよりも54%少ない)、すべての脆弱性を見つける時間(最も近い競合ツールよりも40~60%少ない)、攻撃率(最も近い競合ツールよりも4.4%多い攻撃ベクター)において、大幅な改善が見られた。
実験の結果,BERTモデルとRLに基づく学習の組み合わせにより,BertRLFuzzerは効果的で適応的で,使いやすく,自動で,拡張可能なファジィザであることがわかった。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - CovRL: Fuzzing JavaScript Engines with Coverage-Guided Reinforcement
Learning for LLM-based Mutation [2.5864634852960444]
本稿では,大規模言語モデル(LLM)とカバレッジフィードバックからの強化学習を組み合わせた,CovRL(Coverage-guided Reinforcement Learning)と呼ばれる新しい手法を提案する。
CovRL-Fuzzは、39の既知の脆弱性と11のCVEを含む、最新のJavaScriptエンジンにおける48の実際のセキュリティ関連バグを特定している。
論文 参考訳(メタデータ) (2024-02-19T15:30:40Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - RAT: Reinforcement-Learning-Driven and Adaptive Testing for
Vulnerability Discovery in Web Application Firewalls [1.6903270584134351]
RATは類似の攻撃サンプルをまとめて、攻撃パターンを効率よくバイパスするほとんどすべてのパターンを発見する。
RATは、最も可能性の高いペイロードを通過させることで、平均して33.53%と63.16%の性能を発揮する。
論文 参考訳(メタデータ) (2023-12-13T04:07:29Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - An Embarrassingly Simple Backdoor Attack on Self-supervised Learning [52.28670953101126]
自己教師付き学習(SSL)は、ラベルに頼ることなく、複雑なデータの高品質な表現を学習することができる。
SSLのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-10-13T20:39:21Z) - BAFFLE: Hiding Backdoors in Offline Reinforcement Learning Datasets [31.122826345966065]
強化学習(Reinforcement Learning、RL)は、環境との相互作用中に収集された試行錯誤経験からエージェントに学習させる。
近年、オフラインRLは環境との相互作用を省くため、人気のあるRLパラダイムとなっている。
本稿では,データ(観測値)に摂動を加えるバックドアアタックに焦点を当てる。
オフラインのRLデータセットを汚染することにより、バックドアをRLエージェントに自動的に注入するアプローチであるBaffleを提案する。
論文 参考訳(メタデータ) (2022-10-07T07:56:17Z) - BACKDOORL: Backdoor Attack against Competitive Reinforcement Learning [80.99426477001619]
バックドア攻撃を複数のエージェントを含むより複雑なRLシステムに移行する。
概念実証として、敵のエージェントが被害者エージェントのバックドアを独自のアクションでトリガーできることを実証します。
その結果, バックドアが作動すると, 有効でない場合と比較して, 被害者の勝利率は17%から37%に低下することがわかった。
論文 参考訳(メタデータ) (2021-05-02T23:47:55Z) - DeFuzz: Deep Learning Guided Directed Fuzzing [41.61500799890691]
本稿では,DeFuzzというソフトウェア脆弱性検出のための,ディープラーニング(DL)誘導指向ファズリングを提案する。
DeFuzzには2つの主要なスキームが含まれている。 1) 潜在的に脆弱な機能と位置(脆弱性のあるアドレス)を特定するために、トレーニング済みのDL予測モデルを使用する。
正確には、Bidirectional-LSTM (BiLSTM) を用いて注意語を識別し、その脆弱性はこれらの注意語に関連付けられている。
論文 参考訳(メタデータ) (2020-10-23T03:44:03Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。