論文の概要: ELFuzz: Efficient Input Generation via LLM-driven Synthesis Over Fuzzer Space
- arxiv url: http://arxiv.org/abs/2506.10323v1
- Date: Thu, 12 Jun 2025 03:13:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.551661
- Title: ELFuzz: Efficient Input Generation via LLM-driven Synthesis Over Fuzzer Space
- Title(参考訳): ELFuzz: ファジィ空間上のLLM駆動合成による効率的な入力生成
- Authors: Chuyang Chen, Brendan Dolan-Gavitt, Zhiqiang Lin,
- Abstract要約: ジェネレーションベースのファジリングは、入力文法とテストシステムとソフトウェアに対する意味制約の仕様に従って適切なテストケースを生成する。
本稿では,LLMによるファジィ空間上でのファジィ合成により,テスト対象システム(SUT)に適合した生成系ファジィを自動で合成するELFuzzを提案する。
ELFuzz canは,従来のアプローチと比較して,1)実世界のSUT – 評価において最大1,791,104行のコード – にシームレスにスケールし,2) 興味深い文法構造と人間の理解可能な方法でセマンティック制約をキャッチする効率的なファッジャを合成する。
- 参考スコア(独自算出の注目度): 35.96690130267408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generation-based fuzzing produces appropriate testing cases according to specifications of input grammars and semantic constraints to test systems and software. However, these specifications require significant manual efforts to construct. This paper proposes a new approach, ELFuzz (Evolution Through Large Language Models for Fuzzing), that automatically synthesizes generation-based fuzzers tailored to a system under test (SUT) via LLM-driven synthesis over fuzzer space. At a high level, it starts with minimal seed fuzzers and propels the synthesis by fully automated LLM-driven evolution with coverage guidance. Compared to previous approaches, ELFuzz can 1) seamlessly scale to SUTs of real-world sizes -- up to 1,791,104 lines of code in our evaluation -- and 2) synthesize efficient fuzzers that catch interesting grammatical structures and semantic constraints in a human-understandable way. Our evaluation compared ELFuzz with specifications manually written by domain experts and synthesized by state-of-the-art approaches. It shows that ELFuzz achieves up to 434.8% more coverage and triggers up to 174.0% more artificially injected bugs. We also used ELFuzz to conduct a real-world fuzzing campaign on the newest version of cvc5 for 14 days, and encouragingly, it found five 0-day bugs (three are exploitable). Moreover, we conducted an ablation study, which shows that the fuzzer space model, the key component of ELFuzz, contributes the most (up to 62.5%) to the effectiveness of ELFuzz. Further analysis of the fuzzers synthesized by ELFuzz confirms that they catch interesting grammatical structures and semantic constraints in a human-understandable way. The results present the promising potential of ELFuzz for more automated, efficient, and extensible input generation for fuzzing.
- Abstract(参考訳): ジェネレーションベースのファジリングは、入力文法とテストシステムとソフトウェアに対する意味制約の仕様に従って適切なテストケースを生成する。
しかし、これらの仕様は構築にかなりの手作業を必要とする。
本稿では,LLMによるファジィ空間上での合成により,テスト対象システム(SUT)に適合した生成系ベースのファジィを自動で合成する,ELFuzz(Evolution Through Large Language Models for Fuzzing)を提案する。
高いレベルでは、最小限のシードファッジャから始まり、完全に自動化されたLLM駆動の進化とカバレッジガイダンスによって合成を促進する。
従来のアプローチと比較して、ELFuzzはできます。
1) 実世界のサイズ -- 評価において最大1,791,104行 -- の SUT にシームレスにスケールし、そして
2) 興味深い文法構造と意味制約を人間に理解可能な方法で獲得する効率的なファジィザを合成する。
ELFuzzとドメインエキスパートが手作業で記述し、最先端のアプローチで合成した仕様を比較した。
ELFuzzは最大434.8%のカバレッジを達成し、最大174.0%の人為的に注入されたバグを引き起こす。
また、ELFuzzを使って14日間、最新のcvc5で現実のファジィキャンペーンを実施しました。
さらに, ELFuzz の主要成分であるファザー空間モデルが, ELFuzz の有効性に最も寄与する(最大62.5%)ことを示すアブレーション実験を行った。
ELFuzzによって合成されたファジィのさらなる解析により、興味深い文法構造と意味的制約を人間の理解可能な方法で捉えることが確認される。
その結果, より自動化され, 効率的で, 拡張可能なファジィインプット生成のためのELFuzzの可能性が示唆された。
関連論文リスト
- CKGFuzzer: LLM-Based Fuzz Driver Generation Enhanced By Code Knowledge Graph [29.490817477791357]
本稿では,コード知識グラフによって駆動され,インテリジェントエージェントシステムによって駆動されるファズテスト手法を提案する。
コードナレッジグラフは、そのグラフの各ノードがコードエンティティを表す、プログラム間解析によって構築される。
CKGFuzzerは最先端技術と比較してコードカバレッジが平均8.73%向上した。
論文 参考訳(メタデータ) (2024-11-18T12:41:16Z) - $\mathbb{USCD}$: Improving Code Generation of LLMs by Uncertainty-Aware Selective Contrastive Decoding [64.00025564372095]
大規模言語モデル(LLM)は、コード生成において顕著な能力を示している。
幻覚の影響(例えば出力ノイズ)は、LLMが1パスで高品質なコードを生成するのを難しくする。
単純かつ効果的なtextbfuncertainty-aware textbf select textbfcontrastive textbfdecodingを提案する。
論文 参考訳(メタデータ) (2024-09-09T02:07:41Z) - FuzzCoder: Byte-level Fuzzing Test via Large Language Model [46.18191648883695]
我々は,攻撃を成功させることで,入力ファイルのパターンを学習するために,微調整された大言語モデル(FuzzCoder)を採用することを提案する。
FuzzCoderは、プログラムの異常な動作を引き起こすために、入力ファイル内の突然変異位置と戦略位置を予測することができる。
論文 参考訳(メタデータ) (2024-09-03T14:40:31Z) - LLAMAFUZZ: Large Language Model Enhanced Greybox Fuzzing [6.042114639413868]
特殊なファジィザは複雑な構造化データを扱うことができるが、文法にさらなる努力が必要であり、低スループットに悩まされる。
本稿では,構造化データに対するグレーボックスファジングを強化するために,Large Language Modelを活用する可能性について検討する。
LLMベースのファザであるLLAMAFUZZは、LLMのパワーを統合して、構造化データをファザリングに理解し、変更する。
論文 参考訳(メタデータ) (2024-06-11T20:48:28Z) - MuSR: Testing the Limits of Chain-of-thought with Multistep Soft Reasoning [63.80739044622555]
自然言語ナラティブで指定されたソフト推論タスクの言語モデルを評価するデータセットである MuSR を紹介する。
このデータセットには2つの重要な特徴がある。まず、ニューロシンボリック合成-自然生成アルゴリズムによって生成される。
第二に、私たちのデータセットインスタンスは、実世界の推論の領域に対応する無料のテキスト物語です。
論文 参考訳(メタデータ) (2023-10-24T17:59:20Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Revisiting Neural Program Smoothing for Fuzzing [8.861172379630899]
本稿では,標準グレーボックスファザに対するNPSファザの最も広範囲な評価について述べる。
我々はNuzz++を実装し、NPSファジィの実用的限界に対処することで性能が向上することを示す。
MLベースファジィの簡易かつ再現可能な評価のためのGPUアクセスプラットフォームであるMLFuzzを提案する。
論文 参考訳(メタデータ) (2023-09-28T17:17:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。