論文の概要: Reinforcement learning guided fuzz testing for a browser's HTML
rendering engine
- arxiv url: http://arxiv.org/abs/2307.14556v1
- Date: Thu, 27 Jul 2023 00:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 16:07:21.805980
- Title: Reinforcement learning guided fuzz testing for a browser's HTML
rendering engine
- Title(参考訳): ブラウザのHTMLレンダリングエンジンにおけるファズテストの強化学習
- Authors: Martin Sablotny, Bj{\o}rn Sand Jensen, Jeremy Singer
- Abstract要約: 本稿では,訓練されたテストケースジェネレータ深層学習モデルと二重深層Q-ネットワークを組み合わせた新しい手法を提案する。
DDQNはコードカバレッジ信号に基づいてテストケースの作成をガイドする。
提案手法は,Firefox HTMLレンダリングエンジンのジェネレータモデルのコードカバレッジ性能を最大18.5%向上させる。
- 参考スコア(独自算出の注目度): 0.9176056742068814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generation-based fuzz testing can uncover various bugs and security
vulnerabilities. However, compared to mutation-based fuzz testing, it takes
much longer to develop a well-balanced generator that produces good test cases
and decides where to break the underlying structure to exercise new code paths.
We propose a novel approach to combine a trained test case generator deep
learning model with a double deep Q-network (DDQN) for the first time. The DDQN
guides test case creation based on a code coverage signal. Our approach
improves the code coverage performance of the underlying generator model by up
to 18.5\% for the Firefox HTML rendering engine compared to the baseline
grammar based fuzzer.
- Abstract(参考訳): ジェネレーションベースのファズテストは、さまざまなバグやセキュリティ脆弱性を明らかにすることができる。
しかし、ミュータントベースのfuzzテストと比較して、適切なテストケースを生成し、新しいコードパスを実行するために基盤となる構造を壊す場所を決定する、バランスの取れたジェネレータを開発するには、はるかに時間がかかる。
本稿では,トレーニングされたテストケース生成モデルとダブルディープq-network(ddqn)を初めて組み合わせた新しい手法を提案する。
DDQNはコードカバレッジ信号に基づいてテストケースの作成をガイドする。
提案手法は,ベースライン文法ベースのファジィザと比較して,Firefox HTMLレンダリングエンジンのジェネレータモデルのコードカバレッジ性能を最大18.5倍に向上させる。
関連論文リスト
- CovRL: Fuzzing JavaScript Engines with Coverage-Guided Reinforcement
Learning for LLM-based Mutation [2.5864634852960444]
本稿では,大規模言語モデル(LLM)とカバレッジフィードバックからの強化学習を組み合わせた,CovRL(Coverage-guided Reinforcement Learning)と呼ばれる新しい手法を提案する。
CovRL-Fuzzは、39の既知の脆弱性と11のCVEを含む、最新のJavaScriptエンジンにおける48の実際のセキュリティ関連バグを特定している。
論文 参考訳(メタデータ) (2024-02-19T15:30:40Z) - Zero-Shot Detection of Machine-Generated Codes [83.0342513054389]
本研究は,LLMの生成したコードを検出するためのトレーニング不要な手法を提案する。
既存のトレーニングベースまたはゼロショットテキスト検出装置は、コード検出に効果がないことがわかった。
本手法は,リビジョン攻撃に対する堅牢性を示し,Javaコードによく適応する。
論文 参考訳(メタデータ) (2023-10-08T10:08:21Z) - CAT-LM: Training Language Models on Aligned Code And Tests [19.526181671936243]
テストはソフトウェア開発プロセスにおいて不可欠な部分だ。しかし、テストを書くのに時間がかかり、しばしば無視される。
我々は270億のパラメータを持つGPTスタイルの言語モデルであるAligned Code And Tests Language Model (CAT-LM)を提案する。
論文 参考訳(メタデータ) (2023-10-02T19:52:22Z) - Revisiting Neural Program Smoothing for Fuzzing [8.861172379630899]
本稿では,標準グレーボックスファザに対するNPSファザの最も広範囲な評価について述べる。
我々はNuzz++を実装し、NPSファジィの実用的限界に対処することで性能が向上することを示す。
MLベースファジィの簡易かつ再現可能な評価のためのGPUアクセスプラットフォームであるMLFuzzを提案する。
論文 参考訳(メタデータ) (2023-09-28T17:17:11Z) - Fuzzing for CPS Mutation Testing [3.512722797771289]
本稿では, ファジテストを利用した突然変異検査手法を提案し, C および C++ ソフトウェアで有効であることが証明された。
実験により, ファジテストに基づく突然変異試験は, シンボル実行よりも高い頻度で生存変異体を殺傷することが明らかとなった。
論文 参考訳(メタデータ) (2023-08-15T16:35:31Z) - Neural Embeddings for Web Testing [49.66745368789056]
既存のクローラは、状態等価性を評価するために、アプリ固有のしきい値ベースのアルゴリズムに依存している。
ニューラルネットワークの埋め込みとしきい値のない分類器に基づく新しい抽象関数WEBEMBEDを提案する。
WEBEMBEDは,9つのWebアプリケーションに対する評価の結果,近距離検出により最先端技術よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2023-06-12T19:59:36Z) - Backdoor Learning on Sequence to Sequence Models [94.23904400441957]
本稿では,シークエンス・ツー・シークエンス(seq2seq)モデルがバックドア攻撃に対して脆弱かどうかを検討する。
具体的には、データセットの0.2%のサンプルを注入するだけで、Seq2seqモデルに指定されたキーワードと文全体を生成することができる。
機械翻訳とテキスト要約に関する大規模な実験を行い、提案手法が複数のデータセットやモデルに対して90%以上の攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2023-05-03T20:31:13Z) - Using Large Language Models to Generate JUnit Tests: An Empirical Study [0.4788487793976782]
コード生成モデルは、コードコメント、既存のコード、または両方の組み合わせからプロンプトを受け取り、コードを生成する。
我々は,3つのモデル (Codex, GPT-3.5-Turbo, StarCoder) がどの程度単体テストを生成するかを検討した。
CodexモデルはHumanEvalデータセットの80%以上のカバレッジを達成したが、EvoSuite SF110ベンチマークの2%以上のカバレッジを持つモデルはない。
論文 参考訳(メタデータ) (2023-04-30T07:28:06Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - CodeT: Code Generation with Generated Tests [49.622590050797236]
テストケースを自動的に生成するための事前学習言語モデルについて検討する。
CodeTは生成されたテストケースを使ってコードソリューションを実行し、次に最良のソリューションを選択します。
我々は,HumanEvalとMBPPのベンチマークを用いて,5種類の事前学習モデル上でCodeTを評価する。
論文 参考訳(メタデータ) (2022-07-21T10:18:37Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。